跳至正文

AI+神经科学:深度学习与大脑计算的互鉴

🔭 前沿探索 📅 2026年3月 ⏱ 阅读约14分钟

神经科学和人工智能,在表面上是两个截然不同的领域:一个研究活生生的神经元,另一个构建冰冷的算法。然而,它们之间存在一种深刻的”互鉴关系”——AI最初从神经科学汲取灵感,而今天的深度学习模型反过来正在成为解读大脑的新工具。这场跨越生物与计算的对话,正在重塑我们对智能本质的理解。

从20世纪40年代麦卡洛克-皮茨模型对神经元的抽象,到如今能够从脑电信号中重建语音的深度网络[8],这条双向演进的路上涌现了无数令人惊叹的节点。理解这一互动机制,不仅是看懂AI技术的前沿,更是理解”智能”这个古老问题的新视角。

📋 目录

从神经元到神经网络:一段共同的起源

人工神经网络(Artificial Neural Networks, ANN)从诞生之日起就与神经科学紧密相连。早期的感知器模型借鉴了生物神经元的基本逻辑:接收输入信号,经过阈值处理后决定是否”放电”输出。这种抽象虽然粗糙,却点燃了一个延续至今的研究传统。

一篇发表于《Cell》的综述明确指出,AI与神经科学的交叉地带尤为令人兴奋,过去被认为难以解决的问题——如围棋博弈、医学影像诊断——正随着深度学习的进步接连突破[1]。2019年,一批国际研究者聚集于北京,专门探讨了神经科学与AI如何相互启发,并就跨学科研究议程、政策制定等议题进行了系统梳理[4]

🧠 神经网络的生物学起源

人工神经网络的设计从一开始就从生物学中借鉴灵感:

  • 神经元→人工节点:生物神经元的”激活/不激活”机制被抽象为数学激活函数
  • 突触权重→连接强度:神经元之间突触的可塑性,对应网络中连接权重的可调节性
  • 层级处理→深度架构:视觉皮层的层级信息处理,启发了深度卷积网络的逐层特征提取
  • 反馈连接→循环网络:大脑中广泛存在的自上而下反馈,对应循环神经网络(RNN)架构

《Current Biology》上发表的一篇方法综述详细介绍了前馈网络、循环网络和反向传播算法的原理,并讨论了深度神经网络模型如何帮助我们理解大脑计算[16]。这不仅是技术史,更是一段关于”从自然到算法,再从算法回望自然”的认识论旅程。


深度学习如何模拟大脑计算

现代深度学习已经走得比早期的神经元模拟远得多,但它与大脑计算之间的相似性依然令研究者着迷。尤其在视觉处理领域,深度卷积网络与灵长类视觉皮层的层级结构之间,存在出人意料的对应关系。

一项计算建模研究(Rideaux et al., 2021)训练了一个神经网络用于运动估计,发现该网络自发习得了与生物大脑运动处理区域相似的特性——包括”反向phi效应”(reverse-phi effect),即在某些条件下感知到与真实运动方向相反的方向感[20]。这表明当网络被优化解决与大脑相同的计算任务时,它会”收敛”到类似的表征策略。

⚡ 从视觉皮层到卷积网络

灵长类视觉系统的处理链路:

视网膜 → 外侧膝状体(LGN) → V1初级视觉皮层 → V2 → V4 → IT颞下皮层

对应深度卷积网络的处理链路:

输入层 → 低级特征(边缘/颜色)→ 中级特征(纹理/形状)→ 高级特征(物体/场景)→ 分类输出

一项研究(Bertoni et al., 2022)提出了”LGN-CNN”架构,将网络第一层显式设计为模拟外侧膝状体(LGN)的特性,将深度学习设计与已知的视觉系统特性明确挂钩[21]

当然,大脑与深度网络之间并非完美镜像。《Trends in Cognitive Sciences》的一篇综述提出了一个关键问题:大脑到底更像哪种网络——一个表征嵌入在结构中的神经网络,还是一个承载随时间变化信息的通信网络?这一问题涉及连接主义与符号AI之间的深层张力,至今仍无定论[17]

《Nature Neuroscience》的一篇综述提出了”认知计算神经科学”框架:要真正理解认知是如何在大脑中实现的,科学家必须构建能够完成认知任务的计算模型,并用脑成像数据加以检验[3]。这是一种双向验证的研究逻辑——模型预测大脑,大脑约束模型。


AI作为神经科学工具:解码大脑的新视角

除了作为大脑的”近似模型”,深度学习还在神经科学研究中扮演着越来越重要的数据分析工具角色。现代脑成像技术——无论是功能性磁共振成像(fMRI)、脑电图(EEG)还是植入电极——每次实验都会产生海量、高维的神经数据,而这正是深度学习最擅长处理的数据类型。

一篇发表于《Sensors》的综述系统梳理了深度学习在脑成像、脑监测与脑调控中的进展,涵盖主要成像模态,并讨论了这些方法如何推动精准神经科学的发展[6]

🔬 深度学习在脑科学中的四类应用
  • 脑成像分类与分割:自动识别MRI中的病变区域、脑区边界
  • 神经活动解码:从fMRI/EEG信号反推受试者正在看什么、想什么或说什么
  • 个体差异建模:识别不同人群之间的功能性大脑组织差异
  • 连接动态分析:追踪静息态脑网络的时间演化模式

一项重要的方法学研究(Csaky et al., 2023)开发了一个群组级别的大脑解码深度学习框架,通过引入”被试嵌入”(subject embeddings)来处理个体间变异性。该方法不仅提升了解码精度,也为跨被试的神经表征建模提供了更可解释的结构[7]

另一项研究(Ryali et al., 2024)利用时空深度神经网络,在多个队列中识别出了可重复、可泛化、且与行为相关的人类功能性大脑组织的性别差异——这些差异在传统分析方法下可能难以稳健提取[9]

研究(Anderson et al., 2024)通过端到端深度学习系统对EEG信号进行建模,展示了语境(context)和听者注意力如何共同塑造语音到语言转换过程中的神经相关物,将计算语言学、深度学习与系统神经科学联系在了一起[11]


大脑解码:读取神经信号的前沿实践

大脑解码(brain decoding)是AI+神经科学交叉领域中最引人注目的应用方向之一:通过机器学习模型,将神经电信号”翻译”为外部世界的内容,无论是图像、声音还是语言。这为脑机接口(Brain-Computer Interface, BCI)技术提供了核心引擎。

一项发表于《Journal of Neural Engineering》的研究(Berezutskaya et al., 2023)展示了如何利用优化的深度学习模型,直接从感觉运动皮层的侵入性神经记录中重建语音信号[8]。受试者为接受脑外科手术的患者,研究者在术中记录皮层电活动,并训练模型将这些信号映射为可识别的语音序列。这类研究为帮助因神经疾病丧失言语能力的患者重建交流功能,提供了重要的技术基础。

ℹ️ 什么是脑机接口?

脑机接口(BCI)是在大脑与外部设备之间建立直接通信通道的技术体系。其基本流程是:

  1. 信号采集:通过电极(植入或非植入)记录神经元活动或脑电波
  2. 信号解码:使用机器学习/深度学习模型将神经信号转化为意图或指令
  3. 效应输出:驱动外部设备(光标、机械臂、语音合成器等)执行相应动作

深度学习的引入,显著提升了BCI系统的解码精度和鲁棒性。

意识研究同样从深度学习中获益。一项研究(Gomez et al., 2024)将深度学习应用于静息态fMRI的动态功能连接分析,对不同意识状态下的神经相关物进行建模,探索了意识的神经动力学结构[10]。该研究展示了表征学习(representation learning)在探索意识这一终极神经科学问题上的潜力。

空间导航是另一个AI与神经科学双向互鉴的经典案例。研究者发现,当强化学习智能体在虚拟空间中导航时,其内部表征可自发形成与海马旁皮层网格细胞(grid cells)相似的空间编码模式。一篇来自《Frontiers in Computational Neuroscience》的系统综述深入探讨了空间导航神经科学与AI进展之间的关系,展示了这类双向迁移如何为两个领域各自提供新洞见[2]


神经形态计算:让硅芯片”思考”

传统深度学习在冯·诺依曼架构的芯片上运行,这与大脑的计算方式存在根本差异:大脑使用脉冲式(spiking)、事件驱动的异步信号,而非连续的浮点运算。神经形态计算(neuromorphic computing)正是试图在硬件层面更贴近生物神经计算,从而在效率和表达能力上实现突破。

脉冲神经网络(Spiking Neural Networks, SNN)是神经形态计算的核心算法框架。一篇综述(Gasparinatou et al., 2023)系统回顾了脉冲神经网络与数学神经元模型,强调了它们在模拟生物神经信息处理中的价值,以及在构建更贴近生物神经动力学计算框架中的作用[18]

🧠 脉冲神经网络与传统深度网络的差异
维度 传统深度网络(ANN) 脉冲神经网络(SNN)
信号形式 连续实数值 离散脉冲(0/1)
计算时序 同步批处理 事件驱动异步
能效 较高能耗 理论上更高效
生物真实性 抽象类比 更接近神经元动力学

在硬件实现方面,SpiNNaker(曼彻斯特大学研发的神经形态处理器)是代表性平台之一。一项计算建模研究(van Albada et al., 2018)对比了SpiNNaker神经形态硬件与NEST神经网络仿真软件在全尺度皮层微回路模型上的性能表现[12]。该研究为理解专用神经形态硬件相对于通用软件仿真器的优势与局限提供了量化参考。

机器人学也是神经形态计算的重要应用场景。《Current Biology》的一篇综述(Floreano et al., 2014)回顾了机器人学家如何长期从神经科学中寻求感知与控制的灵感,而神经科学家又如何使用机器人来检验神经系统模型——两个领域的互利交换产生了对神经系统功能、行为和具身化的新认识[5]


大脑仿真:在计算机中重建神经系统

如果说深度学习是从功能上模拟大脑,那么大脑仿真(brain simulation)则更进一步,试图在更精细的生物学层面——从单个神经元到神经回路再到整个脑区——构建大脑的计算模型。这是神经信息学的宏伟目标,也是AI与神经科学交叉中技术要求最高的前沿。

《Neuron》上的一篇综述(Einevoll et al., 2019)论证了大规模大脑仿真对于跨尺度桥接神经科学(从单个神经元到系统层面)可能是不可或缺的[19]。作者主张开发多模态仿真器,使其能够预测脉冲放电、电场、磁场和光信号,从而实现计算模型与实验数据的系统性比较。

🔬 体感皮层的体外硅基仿真

一项发表于《Neuroinformatics》的计算建模研究(Huang et al., 2022)重建了体感皮层(somatosensory cortex)的硅基(in-silico)网络模型,并验证了该模型能够重现已知的触觉表征特性及皮层可塑性现象[13]。这一工作展示了计算建模在检验皮层编码假说方面的具体应用。

注:此为计算建模研究,仿真目标基于大鼠体感皮层的已知生理数据。

需要明确指出的是,大脑仿真与深度学习模型在方法论上有显著区别:

  • 大脑仿真:目标是生物学真实性(biological fidelity),使用Hodgkin-Huxley方程等详细神经元模型,试图重现特定神经回路的生理行为
  • 深度学习模型:目标是功能等价(functional equivalence),不要求与生物学细节对应,只要能完成相同任务即可

两种路径各有侧重,也各有局限。正是两者的并行推进和相互补充,构成了当前”计算神经科学”(computational neuroscience)的主要景观。


共同的边界与未解之谜

深度学习与神经科学的交叉并非没有争议。一个核心的认识论问题在于:深度神经网络作为大脑模型,到底能提供什么样的”解释”?

《Journal of Neurophysiology》的一篇观点综述(Thompson et al., 2021)深入分析了这一问题[14]。作者指出,围绕深度神经网络能否作为神经系统模型的争论,实质上是关于”什么构成了神经科学的科学进步”的哲学辩论——即所谓”解释与理解的形式”问题。

ℹ️ 深度网络作为大脑模型:三个层面的问题
  • 预测性(predictive):网络能否预测神经元对新刺激的响应? — 部分情况下可以
  • 解释性(explanatory):网络的工作方式能否说明为什么大脑这样运作? — 存在争议
  • 洞察性(insightful):分析网络能否产生关于大脑的新假说? — 越来越多的正面案例

Thompson et al.(2021)认为,不同目标对应不同的评价标准,核心分歧往往在于研究者对”解释”二字的不同理解[14]

此外,深度学习的”黑箱”特性也带来了解释困难。《Frontiers in Computational Neuroscience》的研究者在处理群组级别的脑解码时,明确将可解释性建模作为研究目标之一[7]——这反映了领域内对透明度的迫切需求。

还有一个始终存在的方法论警示:AI模型在大脑数据上的优秀表现,并不等于AI”理解”了大脑。一个高精度的分类器可以完全不需要生物学意义上的表征。如何从性能跨越到理解,是AI+神经科学领域尚待解决的核心挑战之一。


数字大脑研究的未来十年

随着数据规模、计算能力和多模态测量技术的同步提升,AI与神经科学的融合正进入一个新阶段。2024年发表于《Imaging Neuroscience》的一篇战略展望文章(Amunts et al., 2024)描绘了”数字大脑研究”的未来图景:多尺度(从分子到全脑)的数字化数据整合与建模,将神经科学、技术与计算联结为一个跨学科项目,并呼吁推动系统性大规模协作与转化应用[15]

⚡ 数字大脑研究的关键使能技术
  • 大规模神经连接组(connectomics):绘制完整的神经元连接图谱,为仿真提供解剖基础
  • 多尺度脑成像:从电镜(纳米级突触结构)到MRI(毫米级脑区),融合多分辨率数据
  • 神经形态芯片:高效执行脉冲神经网络,支持实时大规模仿真
  • 大型语言/视觉模型:作为”计算上的被试”,与神经数据进行比对分析
  • 联邦学习与隐私保护:实现跨机构神经数据共享,同时保护参与者隐私

在空间认知与导航的具体问题上,神经科学与AI的对话已经取得了双向收益。神经科学中对网格细胞和位置细胞(place cells)的发现,直接启发了强化学习智能体中空间记忆模块的设计;而AI模型中自发涌现的类网格表征,又为理解大脑空间计算机制提供了支持[2]

从更长远的视角看,AI与神经科学的互鉴指向的是同一个终极问题:智能是什么?无论是通过研究神经元回路寻找答案,还是通过构建能够思考、学习、导航的人工系统来逼近答案,两条路径都在为这个古老问题提供新的注脚。

《Neuron》上那篇国际研讨综述(Zhaoping et al., 2020)所记录的跨学科对话,或许正是这一时代精神的缩影:研究者们越来越清晰地意识到,神经科学与AI的最大价值,不在于哪一方”赢了”,而在于这场持续的对话本身[4]


📌 要点回顾

  • 共同起源:人工神经网络从神经元结构中汲取了最初的设计灵感,深度学习的层级特征提取与视觉皮层的层级处理存在结构对应[16][1]
  • 双向互鉴:神经科学启发AI架构设计(如网格细胞→空间记忆模块),AI模型反过来成为检验神经机制假说的计算工具[2][3]
  • 大脑解码的进展:深度学习模型已可从皮层侵入性记录中直接重建语音信号,为脑机接口技术提供了关键技术支撑[8]
  • 神经影像的新视角:深度学习在fMRI/EEG数据中识别出了传统统计难以提取的稳健模式,如功能性大脑组织中的性别差异[9]
  • 神经形态计算:脉冲神经网络(SNN)与专用硬件(如SpiNNaker)试图在能效和生物真实性上更贴近大脑计算[12][18]
  • 大脑仿真:从皮层微回路的计算模拟到全脑多尺度数字建模,仿真已成为跨尺度神经科学研究不可或缺的手段[19][13]
  • 解释的边界:深度网络的高预测精度不等于对大脑的深度理解,如何从性能跨越到真正的科学解释,仍是核心挑战[14]
  • 数字大脑的未来:多尺度数据整合、跨机构协作与转化应用,将共同构成未来十年神经科学研究的骨干框架[15]

📚 参考文献

  1. Richards B et al. (2022). The application of artificial intelligence to biology and neuroscience. Cell. PMID: 35868269
  2. Bermudez-Contreras E et al. (2020). The Neuroscience of Spatial Navigation and the Relationship to Artificial Intelligence. Frontiers in Computational Neuroscience. PMID: 32848684
  3. Kriegeskorte N et al. (2018). Cognitive computational neuroscience. Nature Neuroscience. PMID: 30127428
  4. Zhaoping L et al. (2020). Artificial and Natural Intelligence: From Invention to Discovery. Neuron. PMID: 32027832
  5. Floreano D et al. (2014). Robotics and neuroscience. Current Biology. PMID: 25247370
  6. Xu M et al. (2023). Deep Learning Aided Neuroimaging and Brain Regulation. Sensors. PMID: 37299724
  7. Csaky R et al. (2023). Group-level brain decoding with deep learning. Human Brain Mapping. PMID: 37753636
  8. Berezutskaya J et al. (2023). Direct speech reconstruction from sensorimotor brain activity with optimized deep learning models. Journal of Neural Engineering. PMID: 37467739
  9. Ryali S et al. (2024). Deep learning models reveal replicable, generalizable, and behaviorally relevant sex differences in human functional brain organization. PNAS. PMID: 38377194
  10. Gomez C et al. (2024). Deep learning models reveal the link between dynamic brain connectivity patterns and states of consciousness. Scientific Reports. PMID: 39738114
  11. Anderson A et al. (2024). Deep-learning models reveal how context and listener attention shape electrophysiological correlates of speech-to-language transformation. PLoS Computational Biology. PMID: 39527649
  12. van Albada S et al. (2018). Performance Comparison of the Digital Neuromorphic Hardware SpiNNaker and the Neural Network Simulation Software NEST for a Full-Scale Cortical Microcircuit Model. Frontiers in Neuroscience. PMID: 29875620
  13. Huang C et al. (2022). Cortical Representation of Touch in Silico. Neuroinformatics. PMID: 35486347
  14. Thompson J et al. (2021). Forms of explanation and understanding for neuroscience and artificial intelligence. Journal of Neurophysiology. PMID: 34644128
  15. Amunts K et al. (2024). The coming decade of digital brain research: A vision for neuroscience at the intersection of technology and computing. Imaging Neuroscience. PMID: 40800542
  16. Kriegeskorte N et al. (2019). Neural network models and deep learning. Current Biology. PMID: 30939301
  17. Mollon J et al. (2022). What kind of network is the brain? Trends in Cognitive Sciences. PMID: 35216895
  18. Gasparinatou M et al. (2023). Spiking Neural Networks and Mathematical Models. Advances in Experimental Medicine and Biology. PMID: 37486481
  19. Einevoll G et al. (2019). The Scientific Case for Brain Simulations. Neuron. PMID: 31121126
  20. Rideaux R et al. (2021). Exploring and explaining properties of motion processing in biological brains using a neural network. Journal of Vision. PMID: 33625466
  21. Bertoni F et al. (2022). LGN-CNN: A biologically inspired CNN architecture. Neural Networks. PMID: 34715534