神经形态计算:从实验室原型到产业变革的前夜
- 2025-03-27 12:01:00
- 刘大牛 转自文章
- 239
编辑 | matrix
数十年来,科研人员一直致力于构建类脑计算机硬件,但这一领域尚未迎来真正的突破性进展。如今,领先的研究者认为,构建首个能解决实际问题的规模化神经形态设备的时机已然成熟。
从仿生启发的潜力到技术深层的差异
近年来推动人工智能进步的神经网络技术,虽从大脑中获得灵感,但其算法和硬件与生物神经元存在本质差异。神经形态工程师希望通过更精确模拟大脑工作机制,同时实现高效计算与超低能耗。
这一目标的核心在于采用脉冲神经网络(SNN)——其计算单元通过脉冲信号传递信息,而非传统神经网络中的数值计算。尽管学界与企业界兴趣日增,但多数实验仍停留在小规模阶段,尚未实现商业化突破。
今年 1 月发表于《 Nature》的论文指出,神经形态计算正从学术原型转向可应对现实挑战的成熟设备。
相关链接: https://www.nature.com/articles/s41586-024-08253-8
该论文的作者之一、ARM 微处理器首席设计师史蒂夫·弗伯(Steve Furber)在接受《IEEE Spectrum》专访时,分享了关于技术临界点、软硬件协同等关键议题的见解。
硬件基础就绪,亟需「杀手级应用」
弗伯指出,当前技术已能支持任意规模的脉冲神经网络运行,但行业迫切需要证明其实际价值的标志性应用。
以他主导的 SpiNNaker 项目为例,最初定位是为脑科学研究提供工具,但近年来逐渐转向工程应用。
与此同时,主流 AI 因大语言模型(LLM)的惊人能耗遭遇瓶颈,这为神经形态技术提供了机遇——通过模拟生物神经元的能效特性,或可显著降低计算成本。
目前,英特尔 Loihi 2 系统、曼彻斯特大学的百万核 SpiNNaker 架构等设备已具备大规模部署能力。弗伯的合作团队正推广 500 万核级系统,这些平台理论上可运行完整的大语言模型。
但关键问题在于:如何优化算法以充分发挥硬件潜能?
图示:SpiNNaker 团队组装了一个百万核神经形态系统。(来源:报道)
软件生态与协作壁垒的突破
硬件并非唯一挑战,高效软件工具的缺失制约着应用开发。
弗伯坦言,当前缺乏类似 TensorFlow 或 PyTorch 的高层设计工具,开发者仍需手动配置每个神经元参数。
欧盟「人类脑计划」推动的 PyNN 语言是重要进展,该框架已兼容 SpiNNaker 与海德堡大学的 BrainScaleS 系统。然而,多数实验室仍局限于自研平台,跨团队协作亟待加强。
英特尔通过 Lava 软件框架推动生态统一,但距离成熟生态仍有距离。弗伯强调,硬件底层差异可通过软件抽象层弥合,关键在于建立通用标准。
图示:SpiNNaker 团队的一名成员正在检查该公司的百万核计算机。(来源:报道)
生物合理性与工程实用性的权衡
关于神经形态系统应多大程度模拟生物特性,学界存在分歧。
弗伯认为,研究阶段的技术多样性有助于探索最优方案,但转向应用时需聚焦共性。例如,大语言模型仅需简单神经元模型,但若融入更多生物机制,可能显著降低神经元数量。这需要深入研究验证。
在忆阻器等新型器件引发热潮的背景下,弗伯提醒:底层技术创新固然重要,但系统级问题的优先级更高。现有平台已支持研究推进,过度聚焦器件可能分散资源。
规模化转折的信号与挑战
弗伯将当前视为「临界点」:初创企业的生存验证了资本信心,主流 AI 的能耗危机催生变革需求。一旦出现能效优势的实证案例,行业格局或将重塑。
神经形态计算是否真能开启新时代?答案或许就在未来几年的技术演进与应用突破中。
相关报道: https://www.nature.com/articles/s41586-024-08253-8
联系人: | 透明七彩巨人 |
---|---|
Email: | weok168@gmail.com |