0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

DeepMind最新提出“神经算术逻辑单元”,旨在解决神经网络数值模拟能力不足的问题

DPVg_AI_era 来源:未知 作者:李倩 2018-08-05 09:54 次阅读

DeepMind最新提出“神经算术逻辑单元”,旨在解决神经网络数值模拟能力不足的问题。与传统架构相比,NALU在训练期间的数值范围内和范围外都得到了更好的泛化。论文引起大量关注,本文附上大神的Keras实现。

在昆虫、哺乳动物和人类等许多物种的行为中,表示和操纵数值的能力都是显而易见的。这表明基本的定量推理是智能intelligence)的一个基本组成部分。

虽然神经网络能够在给出适当的学习信号的情况下成功地表示和操纵数值量,但它们学习的行为通常不会表现出系统的泛化。具体来说,当在测试时遇到训练时使用的数值范围之外的数值时,即使目标函数很简单(例如目标函数仅取决于聚合计数或线性外推),也经常会出现失败。

这种失败表明,神经网络学习行为的特点是记忆,而不是系统的抽象。触发外推失败的输入分布变化是否具有实际意义,取决于训练过的模型将在何处运行。然而,有相当多的证据表明,像蜜蜂这样简单的动物都能够表现出系统的数值外推(numerical extrapolation)能力,这表明基于数值的系统化推理具有生态学上的优势。

DeepMind、牛津大学和伦敦大学学院的多名研究人员最新发表的论文“Neural Arithmetic Logic Units”,旨在解决这个问题。研究人员开发了一种新的模块,可以与标准的神经网络结构(如LSTM或convnet)结合使用,但偏向于学习系统的数值计算。他们的策略是将数值表示为没有非线性的单个神经元。对于这些single-value的神经元,研究人员应用能够表示简单函数的运算符(例如 +, - ,×等)。这些运算符由参数控制,这些参数决定用于创建每个输出的输入和操作。尽管有这样的组合特征,但它们是可微的,因此可以通过反向传播来学习。

摘要

神经网络可以学习表示和操作数值信息,但它们很少能很好地推广到训练中遇到的数值范围之外。为了支持更系统的数值外推(numerical extrapolation),我们提出一种新的架构,它将数值表示为线性激活函数,使用原始算术运算符进行操作,并由学习门(learned gates)控制。

我们将这个模块称为神经算术逻辑单元(neural arithmetic logic unit, NALU),参照自传统处理器中的算术逻辑单元。实验表明,NALU增强的神经网络可以学习跟踪时间,对数字图像执行算术运算,将数字语言转化为实值标量,执行计算机代码,以及对图像中的对象进行计数。与传统架构相比,我们在训练期间的数值范围内和范围外都得到了更好的泛化,外推经常超出训练数值范围几个数量级之外。

这篇论文一经发表即引起很多关注,有人认为这篇论文比一眼看上去要更重要,Reddit用户claytonkb表示:“结合最近的D2NN,我们可以构建超低功耗的芯片,可以在恒定时间计算超级复杂的函数,我们很快就会转向异构计算架构。”

很快有大神在Keras做出了NALU网络的实现,感受一下:

https://github.com/kgrm/NALU

神经累加器和神经算术逻辑单元

算术逻辑单元(Arithmetic Logic Unit, ALU)是中央处理器的执行单元,是所有中央处理器的核心组成部分,由与门和或门构成的算数逻辑单元,主要功能是进行二进制的算术运算,如加减乘。

在这篇论文中,研究者提出两种能够学习以系统的方式表示和操作数字的模型。第一种方法支持累加积累量(accumulate quantities additively)的能力,这是线性外推的理想归纳偏差。这个模型构成了第二个模型的基础,即支持乘法外推(multiplicative extrapolation)。该模型还说明了如何将任意算术函数的归纳偏差有效地合并到端到端模型中。

第一个模型是神经累加器(Neural Accumulator,NAC),它是线性层的一种特殊情况,其变换矩阵W仅由-1,0和1组成;也就是说,它的输出是输入向量中行的加法或减法。这可以防止层在将输入映射到输出时更改数字表示的比例,这意味着无论将多少个操作链接在一起,它们在整个模型中都是一致的。我们通过以下方式鼓励W内的0,1和-1来改善简单线性层的归纳偏差。

由于硬约束强制W的每个元素都是{-1,0,1}中的一个,这会使学习变得困难,我们提出W在无约束参数方面的连续和可微分参数化:。 这种形式便于用梯度下降进行学习,并产生矩阵,其元素保证在[-1,1]并且偏向接近-1,0或1。

图2:神经累加器(NAC)是其输入的线性变换。 变换矩阵是tanh(W)和σ(M)的元素乘积。 神经算术逻辑单元(NALU)使用两个带有绑定权重的NAC来启用加/减(较小的紫色cell)和乘法/除法(较大的紫色cell),由门(橙色的cell)控制

虽然加法和减法使得许多有用的系统泛化成为可能,但是可能需要学习更复杂的数学函数(例如乘法)的强健能力。 图2描述了这样一个单元:神经算术逻辑单元(NALU),它学习两个子单元之间的加权和,一个能够执行加法和减法,另一个能够执行乘法,除法和幂函数,如。 重要的是,NALU演示了NAC如何通过门控子操作进行扩展,从而促进了新类型数值函数的端到端学习。

NALU由两个NAC单元(紫色单元)组成,这两个单元由学习的S形门g(橙色单元)内插,这样如果加/减子单元的输出值应用权重为1(on),则乘法/除法子单元为0(off),反之亦然。 第一个NAC(较小的紫色子单元)计算累加向量a,存储NALU的加法/减法运算的结果; 它与原始NAC的计算方式相同(即a = Wx)。 第二个NAC(较大的紫色子单元)在对数空间中运行,因此能够学习乘法和除法,将结果存储在m:

总之,这个单元可以学习由乘法,加法,减法,除法和幂函数组成的算术函数,其推断方式是在训练期间观察到的范围之外的数字。

实验和结果

我们在多个任务领域(合成、图像、文本和代码)、学习信号(监督学习和强化学习)和结构(前馈和循环)进行实验。结果表明,我们提出的模型可以学习捕获数据潜在数值性质的表示函数,并将其推广到比训练中观察到的数值大几个数量级的数值。我们还观察到,即使不需要外推,我们的模块相对于线性层也显示出优越的计算偏差。在一种情况下,我们的模型在误差率上超过了最先进的图像计数网络54%。

任务1:简单的函数学习任务

表1:静态和循环任务的插值和外推误差率。

任务2;MNIST计数和算术任务

表2:长度为1,10,100和1000的序列的MNIST计数和加法任务的准确度。

结果显示,NAC和NALU都能很好地推断和插值。

任务3:语言到数字的翻译任务

表3:将数字串转换为标量的平均绝对误差(MAE)比较。

图3:对先前未见过的查询的中间NALU预测。

图3显示了随机选择的测试实例中NALU的中间状态。 在没有监督的情况下,模型学会跟踪当前token的未知数的合理估计,这允许网络预测它以前从未见过的token。

程序评估

图4:简单的程序评估,外推到更大的值。

我们比较了三种流行的RNN(UGRNN,LSTM和DNC),结果显示即使域增加了两个数量级,外推也是稳定的。

学习在网格世界环境中跟踪时间

图5 :(上)Grid-World环境中时间跟踪任务的帧。 智能体(灰色)必须在指定时间移动到目的地(红色)。 (下)NAC提高了A3C智能体所学到的外推能力。

MNIST奇偶校验预测任务和消融研究

表4:关于MNIST奇偶校验任务的affine层和NAC之间的消融研究。

表4总结了变体模型的性能。结果显示,去除偏差并对权重应用非线性显着提高了端到端模型的准确性,即使大多数参数不在NAC中,NAC将先前最佳结果的误差减少了54%。

结论

目前神经网络中数值模拟的方法还不够完善,因为数值表示方法不能推广到训练中观察到的范围之外。我们已经展示了NAC和NALU是如何在广泛的任务领域中纠正这两个缺点的,它促进了数字表示和在训练过程中观察到的范围之外的数值表示函数。然而,NAC或NALU不太可能是每个任务的完美解决方案。相反,它们举例说明了一种通用设计策略,用于创建具有针对目标函数类的偏差的模型。这种设计策略是通过我们提出的单神经元数值表示(single-neuron number representation)来实现的,它允许将任意(可微的)数值函数添加到模块中,并通过学习门控制,正如NALU在加法/减法和乘法/除法之间实现的那样。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4762

    浏览量

    100522
  • 函数
    +关注

    关注

    3

    文章

    4304

    浏览量

    62415

原文标题:DeepMind重磅:神经算术逻辑单元,Keras实现

文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    matlab 神经网络 数学建模数值分析

    matlab神经网络 数学建模数值分析 精通的可以讨论下
    发表于 09-18 15:14

    神经网络教程(李亚非)

    源程序  4.3 旅行商问题(TSP)的HNN求解  Hopfield模型求解TSP源程序  第5章 随机型神经网络  5.1 模拟退火算法  5.2 Boltzmann机  Boltzmann机模型
    发表于 03-20 11:32

    神经网络简介

    神经网络简介
    发表于 08-05 21:01

    求助大神关于神经网络的问题

    求助大神 小的现在有个难题: 一组车重实时数据 对应一个车重的最终数值(一个一维数组输入对应输出一个数值) 这其中可能经过均值、方差、去掉N个最大值、、、等等的计算 我的目的就是弄清楚这个中间计算过程 最近实在想不出什么好办法就打算试试
    发表于 07-14 13:35

    容差模拟电路软故障诊断的小波与量子神经网络方法设计

    作者:李云红0 引言自20世纪70年代以来,模拟电路故障诊断领域已经取得了一定的研究成果,近年来,基于神经网络技术的现代模拟电路软故障诊断方法已成为新的研究热点,神经网络的泛化
    发表于 07-05 08:06

    卷积神经网络如何使用

    卷积神经网络(CNN)究竟是什么,鉴于神经网络在工程上经历了曲折的历史,您为什么还会在意它呢? 对于这些非常中肯的问题,我们似乎可以给出相对简明的答案。
    发表于 07-17 07:21

    【案例分享】基于BP算法的前馈神经网络

    `BP神经网络首先给出只包含一个隐层的BP神经网络模型(两层神经网络): BP神经网络其实由两部分组成:前馈神经网络
    发表于 07-21 04:00

    【案例分享】ART神经网络与SOM神经网络

    今天学习了两个神经网络,分别是自适应谐振(ART)神经网络与自组织映射(SOM)神经网络。整体感觉不是很难,只不过一些最基础的概念容易理解不清。首先ART神经网络是竞争学习的一个代表,
    发表于 07-21 04:30

    人工神经网络实现方法有哪些?

    人工神经网络(Artificial Neural Network,ANN)是一种类似生物神经网络的信息处理结构,它的提出是为了解决一些非线性,非平稳,复杂的实际问题。那有哪些办法能实现人工神经
    发表于 08-01 08:06

    如何设计BP神经网络图像压缩算法?

    ,并能在脑海中重现这些图像信息,这不仅与人脑的海量信息存储能力有关,还与人脑的信息处理能力,包括数据压缩能力有关。在各种神经网络中,多层前馈神经网络
    发表于 08-08 06:11

    如何构建神经网络

    原文链接:http://tecdat.cn/?p=5725 神经网络是一种基于现有数据创建预测的计算系统。如何构建神经网络神经网络包括:输入层:根据现有数据获取输入的层隐藏层:使用反向传播优化输入变量权重的层,以提高模型的预测
    发表于 07-12 08:02

    基于BP神经网络的PID控制

    最近在学习电机的智能控制,上周学习了基于单神经元的PID控制,这周研究基于BP神经网络的PID控制。神经网络具有任意非线性表达能力,可以通过对系统性能的学习来实现具有最佳组合的PID控
    发表于 09-07 07:43

    卷积神经网络模型发展及应用

    神经网络的思想起源于1943年McCulloch 和 Pitts 提出神经元模型[19],简称 MCP 神经元模 型。它是利用计算机来模拟
    发表于 08-02 10:39

    神经网络基本介绍

    神经网络基本介绍,人工神经网络(简称神经网络,Neural Network)是模拟人脑思维方式的数学模型。 神经网络是在现代生物
    发表于 12-06 15:07 0次下载

    卷积神经网络和bp神经网络的区别

    不同的神经网络模型,它们在结构、原理、应用等方面都存在一定的差异。本文将从多个方面对这两种神经网络进行详细的比较和分析。 引言 神经网络是一种模拟人脑神经元连接和信息传递的计算模型,它
    的头像 发表于 07-02 14:24 2813次阅读