比人类神经元快 10 亿倍:港中文、中科院「超级大脑」1 秒识图 3479 万张
谁不想要一个比人类大脑快 10 亿倍的「超级大脑」?来自港中文、中科院物理所等研究机构的科学家们,提出了一种突破性激光人工神经元,完美模仿了人类神经细胞的功能,并创造了惊人的处理速度记录。
人工神经元以比人类大脑快 10 亿倍的速度运行,这将会带来怎样的变革?
这个科幻般的场景如今已经变成现实。
来自香港中文大学、中国科学院物理研究所等机构的科学家们成功地开发出了基于「激光」的人工神经元。
这一最新研究已发表在 Optica 期刊上。
详细论文可查阅:https://opg.optica.org/optica/fulltext.cfm?uri=optica-11-12-1690&id=565919
这种基于芯片的量子点激光器不仅可以完全模拟真实神经细胞的功能,还能实现惊人的速度——
即 10GBaud 的信号处理速度,这意味着它比生物神经元快了整整 10 亿倍。
基于芯片的激光神经元可以模拟生物的梯级神经元,同时实现 10 GBaud 的信号处理速度
那么,这个速度究竟有多快呢?
它可以在 1 秒内处理 1 亿次心跳数据;也可以在 1 秒内分析 3479 万张手写数字图像。
这一突破可能会从根本上改变人工智能和先进计算领域,提高模式识别和序列预测的能力。
人工智能模仿生物神经元,速度提升 10 亿倍
这一突破性发现为何如此关键?
我们的身体中存在着不同类型的神经细胞。
其中,梯级神经元通过持续改变膜电位来编码信息,实现精细的信号处理。
相比之下,脉冲神经元则使用全有/全无的动作点位来传递信息,创造出更二元的通信方式。
最新研究中的关键突破在于创新的设计方法。
传统的光子脉冲神经元通常通过将输入脉冲注入激光器的增益区域来工作,这种方式会导致延迟,从而限制了神经元的响应速度。
下面的对比图展示了脉冲神经元和梯级神经元在输入输出方面的情况。
激光神经元的速度快且能耗低
激光人工神经元可以以模仿生物神经元行为的方式对输入信号进行响应,由于其超快的数据处理速度和低能耗,正被研究用于显著提升计算的方法之一。
然而,迄今为止,大部分的发展仍是光子脉冲神经元。
这些人工神经元存在响应速度有限、可能导致信息丢失并且需要额外激光源和调制器等问题。
然而在最新的研究中,打破了光子脉冲神经元的速度限制。
研究团队选择将射频信号注入到量子点激光器的可饱和吸收区,巧妙地绕开了这一限制。
他们还为可饱和吸收区设计了高速射频板,从而产生了一个更快速、更简单又能节省能源的系统。
港中文研究小组负责人 Chaoran Huang 表示,「激光梯级神经元突破了当前光子脉冲神经元的速度限制,我们构建的一个储层计算系统(reservoir computing system),在模式识别和序列预测等 AI 任务中展现出卓越的性能」。
激光梯级神经元在心律失常检测、图像分类等人工智能任务中,展现出了卓越的模式识别和序列预测能力
他还说,凭借强大的记忆效应和卓越的信息处理能力,单个激光梯级神经元可以表现得像一个小型神经网络。
因此,即使没有额外复杂连接的单个激光梯级神经元,也可以高效地执行机器学习任务。
高速储层计算:1 秒处理 1 亿次心跳数据
为了展示激光梯级神经元的能力,研究团队将其用于构建储层计算系统。
这是一种使用特定网络(称为存层)来处理时间相关数据的计算方法,通常用于语音识别、天气预测等领域。
激光梯级神经元的类神经元非线性动态特性和迅速的处理速度,使其成为支持高速储层计算的理想选择。
下面这幅图展示了储层计算(RC)的架构。
RC 源自循环神经网络,是一种功能强大且经济高效的计算框架,非常适合处理时间/顺序信息。
其主要由输入层、存储层和读出层组成。存储层内的非线性节点之间的连接是随机的,权重是固定的,这减少了对存储层的训练需求。
在这里,只有读出层需要训练,可以通过线性回归等简单且计算高效的方法来完成。
在最新的研究中,作者让激光梯级神经元充当激光储层,用于执行储层计算。在输入层,输入信号被编码为注入到激光储层的电脉冲。
在具体实验中,该系统展现出令人印象深刻的性能。
例如,它可以每秒处理 1 亿次心跳数据,并以 98.4% 的平均准确率检测心率失常模式。
具体而言,研究人员使用了经过处理的 MIT-BIH 心律失常数据集,开始进行失常心跳检测的基准任务。
该数据库包含了来自 47 名受试者的 48 个半小时心电图记录片段,是第一个广泛用于评估心率失常检测器的测试材料。
在经过处理的两类 MIT-BIH 心率失常数据集中,原始心电图波形被重新采样,然后分成单个心跳,每个心跳由 50 个时间步骤组成。
如下图 a 所示,这些心跳被划分为健康组和心率失常组,分别标记为 0 和 1。
此外,在各种人工智能应用中,该系统展现出优秀的模式识别和序列预测能力,特别是在长期预测任务方面。
在 MNIST 手写数字数据集任务中,研究人员评估了激光储存的分类性能。MNIST 数据集包含了由 28×28 灰度像素组成的手写数字图像。
如下图所示,在四类 MNIST 手写数字分类任务中,通过使用六重交叉验证方法计算的平均准确度达到了 92.3%。
一些网友对于这一突破性进展表示赞许,这使我更加确信我们正处在指数级增长的道路上稳步前行。
发展的速度现在已经快到我难以预测 6 个月甚至一年后我们会到达哪个阶段。或许我的想象过于超前,但我确实能感受到技术进步的加速。
那么,激光神经元的发现意味着什么呢?
它将加速人工智能在时序相关应用中的决策过程,同时保持高准确性的同时大幅提高处理速度。
若有一天它被整合到边缘计算设备中,将创造出更快速、更智能的人工智能系统,从而显著降低能源消耗。
研究人员表示,未来下一步,他们将努力提升激光梯级神经元的处理速度,并开发包含级联激光梯级神经元的深度储层计算结构。
参考资料:
https://www.optica.org/about/newsroom/news_releases/2024/december/laser-based_artificial_neuron_mimics_nerve_cell_functions_at_lightning_speed/
https://opg.optica.org/optica/fulltext.cfm?uri=optica-11-12-1690&id=565919
本文来自微信公众号:新智元(ID:AI_era)
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考。
1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。