当前,人工智能的飞速发展催生了大模型对海量算力的无尽渴望,使得原本基于冯诺依曼结构的计算机遇到了巨大的挑战。为此,寻找一种新的高效计算机结构来替代经典架构,成为了业内专家们长久以来的探索方向。近期,来自上海科技大学的研究团队便取得了突破性进展,他们首次研发出了全光深度储备池计算机,并在著名学术刊物《Optica》上公开发表了这一开创性的成果——名为“Deep photonic reservoir computing recurrent network”的论文。
储备池计算(Reservoir Computing)作为在2000年被提出的先进理念,是一类以较少培训成本和低硬件投入实现的可逆循环神经网络(RNN),在时序数据处理中拥有广泛的适用领域,诸如波形辨别、语音识别及时间序列预测等。尽管其使得训练成本更低且具有高效率、低延迟的优点,但却不适应那些需要深度神经网络多层次处理信息的大型模型,因为多数硬件储备池计算机只有一层厚度,无法胜任处理现实生活中纷繁复杂任务的需求。
然而,该研究团队这次创新性的成就便是通过运用级联光注入锁定的全新技术,成功组建了共4个隐藏层。这种储备池光计算机的独特之处在于,每个隐藏层都是由半导体激光芯片与光学反馈环组成,且两个层面之间的联系采用全光形式进行,无需经过光电变换或数模转换,这不仅大大降低了能源消耗,也有效缩短了延迟时间。
据悉,此款计算机工作频率高达20GHz,延迟时间仅为263ns,具备生成超过5000个神经元节点以及101TOPS强大算力的能力。此外,由于每一层都由相应的激光芯片提供能量,故而无论储备池深度如何扩展,系统中的光功率均不受影响。
为了论证这一计算机解决实际问题的能力,科研团队选取了四个隐藏层共计320个互连神经元(每层80个)来解决光纤通信领域的重要挑战——非线性信道均衡问题,这也是华为早先提出的后香农时代十大数学难题之一。试验结果显示,这款深度储备池光计算机展现出极强的光纤非线性补偿功能,有力提升了光纤信道的通信容量。
据了解,相较于市场主流的边缘计算产品,同功耗下的储备池光计算机算力至少高出1个数量级,且能将时延降低3至4个数量级。因此,未来这一新形态的储备池光计算机将被广泛应用于如智能制造、机器人、智慧医疗、智慧交通、智能家居等各类边缘计算应用场景。
-
神经网络
+关注
关注
42文章
4762浏览量
100534 -
大模型
+关注
关注
2文章
2321浏览量
2477
发布评论请先 登录
相关推荐
评论