一、为什么它们注定会相遇
人工智能的早期灵感直接来自神经科学:感知器模拟神经元,卷积神经网络借鉴视觉皮层的局部感受野,强化学习中的奖励机制源于行为心理学。然而,随着深度学习走向“更大、更深、更多数据”,它与生物大脑的相似性逐渐减弱。
最近,两个领域又重新靠近——不是因为AI变得像大脑,而是因为大脑处理信息的方式能为AI提供新的计算范式,同时AI也能帮助脑科学家破解神经编码。
二、类脑计算:突破冯·诺依曼瓶颈
传统计算机的CPU与内存分离,导致“存储墙”问题——大部分能耗和时间浪费在数据搬运上。人脑则完全不同:神经元既是计算单元又是存储单元,突触权重同时存储信息并参与计算。
类脑芯片(如英特尔的Loihi、IBM的TrueNorth、清华的天机芯)采用存内计算与事件驱动架构。它们只在脉冲到达时消耗能量,功耗比传统芯片低数个数量级。
更重要的是,这些芯片天然适合处理时空模式——脉冲神经网络(SNN)可以高效编码视频、声音、触觉等随时间变化的信息,而传统深度网络处理时序需要额外的循环结构或注意力机制,计算开销大。
三、脉冲神经网络:更接近大脑的第三波浪潮
SNN的核心是离散脉冲与膜电位累积。当膜电位超过阈值时,神经元发放一个脉冲,然后重置。这种通信方式极其稀疏——大多数时间网络处于静默状态,因此能耗极低。
但在深度学习时代,SNN长期被边缘化,原因是脉冲不连续,无法直接使用反向传播。近年来,研究者提出了多种替代训练方法:
- 替代梯度:用平滑函数近似脉冲的导数,使反向传播可行。
- ANN转SNN:训练传统深度网络,再将激活值转化为脉冲发放率。
- 局部学习规则:如脉冲时间依赖可塑性(STDP),一种无监督的生物学学习机制。
SNN的潜力在于:处理事件相机数据、低功耗边缘计算、类脑机器人控制。例如,苏黎世大学与英特尔合作开发的Loihi机器人,可以实时处理触觉信号并执行避障,功耗仅几毫瓦。
四、AI辅助神经解码:从脑电到意图
另一方面,AI正在帮助脑科学家解读大脑信号。
传统方法分析脑电图(EEG)、功能磁共振(fMRI)或脑皮层电图(ECoG)时,主要依赖线性模型或手工提取的特征。深度学习可以自动学习复杂的时空模式:
- 脑机接口(BCI):用卷积神经网络识别运动想象脑电信号,帮助瘫痪患者控制机械臂或打字。
- 神经重构:生成对抗网络(GAN)可以将fMRI激活模式反推出被试看到的图像(虽然目前还很模糊)。
- 脑电去噪:自编码器可以去除眼动、肌肉活动等伪迹,提升信号质量。
最近的一项突破是语义解码器。德克萨斯大学奥斯汀分校的研究团队训练了一个大语言模型,结合fMRI信号,能够连续生成被试听到或想象的故事内容。虽然无法读取“思想”,但可以预测语义类别与句子的大致主题。
五、双向挑战:我们还不懂的东西
尽管交叉研究令人兴奋,但两个领域之间存在根本性的未解问题:
- 表征的鸿沟:深度网络的特征是分层抽象的(边缘→纹理→物体部件→类别),而大脑同时存在层级处理和平行交互,且与记忆、情绪、注意力动态耦合。
- 学习规则未知:反向传播在工程上极成功,但大脑显然不会做全局误差反向传播。STDP等局部规则能训练小规模网络,但在大规模任务上远不如反向传播。
- 数据效率:AI需要数百万张图片才能认出猫,而人类儿童见过几十只猫就能泛化。我们还不清楚大脑使用了哪些归纳先验。
六、未来:协同演化而非单向模仿
现在的主流共识是:AI不需要完全复制大脑。飞行器不是鸟类的仿生品,但它们都遵循空气动力学原理。同样,智能也可能存在一套独立于生物实现的抽象原则。
未来最有可能的方向是:
- 神经形态计算走向实用化,在边缘设备上实现超低功耗智能。
- AI帮助发现神经编码的隐藏模式,反过来提出新的计算理论。
- 脑机接口结合大语言模型,为语言障碍者提供更自然的沟通工具。
- 具身智能借鉴小脑的运动学习机制,让机器人在物理世界中更快适应。
小结
AI与脑科学的关系已从“模仿”转向“对话”。两者正在共同解决一个根本问题:有限的能量与数据,如何产生灵活、鲁棒、可泛化的智能。
这场交叉革命才刚刚开始。无论你从哪一侧进入,都将在另一侧发现意想不到的灵感。