0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

深度学习的创始人解释了神经网络的变迁资料说明

电子工程师 来源:未知 2019-05-26 10:00 次阅读

Geoffrey Hinton是深度学习的创始人之一,2019年图灵奖得主,谷歌工程研究员。

在津南谷歌的I/O开发者大会上,美国科技媒体Wired的NicholasThompson和Hinton讨论了他早期对大脑的痴迷,以及计算机可以模仿其神经结构的可能性。他们还讨论了意识这个概念以及Hinton未来的计划。

以下是对话过程,请欣赏!

Nicholas Thompson:让我们从你早期的一些极具影响力的论文开始谈起。每个人都说,“这是一个聪明的想法,但实际上我们不可能以这种方式来设计计算机。那么,请解释一下你为什么如此坚持、如此自信地认为自己找到了重要的东西。

在我看来,大脑必须通过学习“联系”的力量来发挥作用,除此以外没有别的方式。如果你想让一个设备完成一些智能工作,那么有两个选择:一是你可以编程,二是它可以学习。人当然不是被编程的,所以我们必须学习。因此这肯定是正确的道路。

NT:那么,能解释一下神经网络是什么吗?

GH:你有相对简单的处理元素,它们是非常松散的神经元模型。这些模型之间有连接,每个连接都有权值,并且可以通过学习改变权值。神经元所做的是,将连接上的活动乘以权值,再把它们全部加起来,然后决定是否发送输出。如果它得到一个足够大的和,就会发送一个输出;如果总和为负数,则不会发送任何内容。仅此而已。你所要做的就是把成千上万的神经元和成千上万的权值的平方连接起来,然后算出如何改变权值,它就能做任何事情。这只是一个你如何改变权值的问题。

NT:你是什么时候意识到这种模式与大脑运作方式相近的?

GH:神经网络总是这样设计出来的,被设计成像大脑那样去工作。

NT:意思就是,在你职业生涯的某个阶段,你开始去了解大脑的工作方式。或许是在你12岁的时候,也或许是在你25岁的时候。所以,你究竟是什么时候决定要模仿大脑来制作电脑模型的?

GH:基本是在了解大脑原理后。具体想法是:通过改变连接的字符串(就像人们认为的大脑学习方式那样),来制造一个像大脑那样学习的学习设备。这个主意也不是我的首创,图灵也有同样的想法。图灵,尽管他奠定了很多标准计算机科学的基础,他也相信大脑是一个有着随机权值的无组织的“装置”,它会使用强化学习来改变连接,最终学习一切。他还认为这是获得情报的最佳途径。

NT:所以你遵循图灵的想法——制造机器最好的方法就是模仿人类的大脑。脑子里想着:这就是人脑的工作原理,因此让我们造一个这样的机器吧。

GH:是的,这不仅仅是图灵的想法,很多人都这么认为。

NT:最黑暗的时刻是什么时候?还有,什么时候那些同样赞成图灵想法、一直在工作的人退缩时,但你却仍然继续前进?

GH:总有一群人始终相信它,尤其是在心理学领域。但是对于计算机科学家,90年代时得到的数据集非常小,计算机运行也没有那么快。在小数据集方面,其他的方法比如支持向量机,工作得更好。

在80年代我们就发展了反向传播,原本以为它能解决所有问题,结果却不行,我们疑惑为什么行不通。现在知道其实是数据规模导致其不能解决所有问题,当时我们都没有意识到。

NT:那你当时认为为什么行不通呢?

GH:我们认为这行不通,是因为我们没有完全正确的算法和完全正确的目标函数。很长一段时间以来,我一直认为这是因为我们一直在做监督学习,你必须给数据贴上标签。其实我们应该做的是无监督学习,就是从没有标签的数据中学习。

NT:有意思。所以问题是你没有足够的数据,而你当时却以为自己拥有适量的数据,但未被正确标记。因此你只是误解了这个问题?

GH:我认为仅仅使用标签是一个错误。大部分学习过程都没有使用任何标签,只是尝试在数据中对结构建模。我相信这一点。我也认为随着计算机变得越来越快,对于任何给定大小的数据集,只要计算机足够快,都最好做无监督学习。一旦你完成了无监督学习,你就能从更少的标签中进行学习。

NT:所以在20世纪90年代,你仍然继续身处学术界进行这个研究,也依旧发表论文,但没有解决什么大的问题。你有没有说过,我觉得研究够了,要去试试别的方向?还是你只是坚持要继续研究深度学习?

GH:是的,我一直在坚持这样的研究一定有用。我的意思是,大脑中的连接正在以某种方式完成学习过程,我们必须弄清它。可能有很多不同的方法来学习连接的强度,大脑正在使用其中一个。当然,你也必须拥有可以学习这些连接强度的东西。我从来没有怀疑过这一点。

NT:因此你永远不会怀疑。那么,什么时候研究开始可行的?

GH:80年代最令人沮丧的一件事是,如果你建立的网络有很多隐藏层,你就无法训练它们。这也不完全正确,因为你可以训练一些相当简单的任务,比如识别笔迹。但是大多数深层神经网络,我们是不知道如何训练它们的。大约在2005年,我想出了一种无人监督的深网训练方法。你获取到输入,比如说像素,然后你会得到一堆特征,它们很好地解释为什么像素是这样的。接着你把这些特征当做数据,又学习到另一组特征,所以我们可以解释为什么这些特征有相关性。你不断地进行一层又一层学习,但有趣的是,你可以通过一些数学运算,来证明每次你学习另外一层,你不一定有一个更好的数据模型,但你有一个关于你的模型有多好的波段。这样每次添加另一层时,你都可以获得更好的波段。

NT:这是什么意思,你有一个关于你的模型有多好的波段?

GH:一旦有了一个模型,你说,“模型找到这些数据有多令人奇怪?”你向它展示了一些数据然后说:“这是你相信的那种东西吗,还是说这令人惊讶?”而你想要做的是拥有一个模型,一个好的模型是看着数据说,“是的,是的,我知道。这是不足为奇。”

通常很难准确计算出这个模型发现数据的惊人程度。但是你可以在上面计算一个波段,然后得出结论说这个模型发现的数据没有那个模型那么令人惊讶。你还可以展示,当添加了额外的特征探测器层时,得到一个模型能使得你每次添加一个层,波段就会发现数据变得更好。

NT:大约在2005年,你取得了这个数学上的突破。那么你又是什么时候开始得到正确答案的?当时你在处理什么数据?你在处理什么数据?语音数据是你的第一个突破,对吧?

GH:这只是手写的数字,非常简单。而之后大约在同一时间,他们开始开发GPU(图形处理单元)。大约在2007年,做神经网络的人们开始使用GPU。我有一个非常优秀的学生,也开始使用GPU来寻找航拍图像中的道路。他写了一些代码,然后被其他学生用来使用GPU去识别语音中的音素,当时他们正在使用预训练的想法。在他们完成所有这些预训练之后,只要把标签贴在上面然后使用反向传播,你就可以有一个经过预训练的非常深的网。然后你可以继续使用反向传播,它确实有效。它在某种程度上超过了语音识别的基准。

NT:它击败了最好的商业语音识别?也击败了语音识别方面最好的学术工作?

GH:在一个名为TIMIT的相对较小的数据集上,它的表现略好于最好的学术作品。还在IBM完成了工作,并且相当迅速。很快,人们就意识到这个东西——因为它打败了花了30年时间开发的标准模型——如果再多开发一点就会做得很好。所以我的研究生们去了微软,IBM和谷歌,谷歌是最快把它变成生产语音识别器的。到2012年,这项2009年首次完成的工作,在Android上出现了。而后Android在语音识别方面突然变得更加擅长。

NT:自从40年前开始产生这个想法的那一刻,你已经研究了20年,现在你终于比你的同事出色了。这种感觉怎么样?

GH:我只有30年的想法!

NT:是的,是的!所以只是一个新想法。新的!

GH:我感觉很好,它终于找到了真正的问题所在。

NT:你还记得第一次得到启示性的数据时,你在哪里吗?

GH:不记得了。

NT:好的。所以你意识到它适用于语音识别。那又是从什么时候开始将它应用于其他问题?

GH:就在那之后我们开始把它应用到其他各种问题上。George Dahl是最早从事语音识别研究的人之一,他将其应用于预测一种分子是否会与某种物质结合,并成为一种良好的药物。还有这么有一场比赛,他只把我们设计的语音识别标准技术应用到预测药物的活性上,就赢得了比赛。表明了这些东西的运用范围是相当普遍的。然后我的一个学生说,“Geoff,你知道么,这个东西将用于图像识别,李菲菲已经为它创建了正确的数据集。还有一个公开的竞争,我们也必须这么做。”

当时是2012年,我们得到的结果比标准的计算机视觉要好得多。

NT:那么,是什么区分了哪些区域工作最快,哪些区域需要更多间?似乎视觉处理、语音识别,这样类似于用感官知觉来处理的人类核心活动被认为是首先需要清除的障碍,对吗?

GH:是也不是,因为还有一些比如运动控制这样的其他领域。我们人类非常擅长运动控制,我们的大脑显然就是为此而设计的。而直到现在,神经网络才开始与其他最好的技术竞争。神经网络技术最终会赢,但现在才刚刚开始赢。

另外,我认为推理——抽象推理,这是我们要学习做的最后一件事,我也认为这将是神经网络学习做的最后一件事。

NT:所以你一直说神经网络最终会赢得一切。

GH:嗯,我们都是神经网络。他们可以做任何我们能够做的事情。

NT:是的,但是人脑并不一定是有史以来最有效的计算机器。

GH:当然不是了。

NT:当然不是我这人类的脑袋!难道不存在一种比人脑更有效的机器建模方法吗?

GH:从哲学的角度来说,我并不反对这样的想法,即可能有一些完全不同的方式来做出(人类能够做到的)这一切。比如它可以是这样的。如果从逻辑开始,你试图将逻辑自动化,然后再做一些看起来很酷炫的定理证明,再做些推理,然后你决定通过推理来做视觉感知——可能最后成功方法就是这个。事实证明它没有。但我对这一事实没有哲学上的反对意见。只是我们知道大脑可以做到这一点。

NT:但也有一些事情我们的大脑做不好。对于这些事情而言,神经网络会不会也没有什么办法将其做好呢?

GH:很可能(做不好),是的。

NT:我这还有个相对独立的问题:我们并不完全知道它们到底是如何运作的,对吧?

GH:不,我们确实不知道它们如何运作。

NT:我们不了解自上而下的神经网络是如何工作的。这是我们不理解神经网络运作方式的一个核心要素。麻烦您解释一下这个问题,然后让我再问一下这个显而易见的跟进问题:如果我们不知道这些东西是如何工作的,那它们怎么能起作用呢?

GH:如果你看一下目前的计算机视觉系统,其中大部分基本上是前馈;他们不使用反馈连接。当前的计算机视觉系统还有一个问题——它们很容易出现对抗性错误。你可以稍微改变一张熊猫照片上的几个像素——现在照片看起来仍然像只熊猫,但系统会突然改口说这其实是一只鸵鸟。显然,你改变像素的方式是经过精心设计的,从而欺骗它认为照片是一只鸵鸟。但重点是,照片对你来说仍然像一只熊猫。

最初我们认为这些算法非常有效。但是,当我们不得不面对这样一个事实,即他们明明面对着一只熊猫但确信这其实是一只鸵鸟时,你会有点担心。我认为这个问题一部分是由于,这些算法不是试图从概括性表征中重建图像,而是试图进行歧视性学习。在那里你只学习特征探测器的层次,而目标函数只是关于改变权重以便你更好地得到正确的答案。

最近在多伦多,我们一直在发现,或者Nick Frost一直在发现,如果你引入重建,那么它可以帮助你更好地解决对抗性攻击这一问题。所以我认为在人类的视觉中,我们使用重建来进行学习。并且,因为我们通过重建来进行大量学习,我们更不易于被对抗性攻击蒙蔽双眼。

NT:你相信神经网络中的自上而下的信息传导旨在帮助你测试如何进行重建。你如何测试并确定它是熊猫而不是鸵鸟?

GH:我认为这至关重要,是的。

NT:但是脑科学家并不是很赞同这一观点是吗?

GH:脑科学家们都同意这一表述——如果你在感知途径中有两个皮质区域,那么一定会有向后的连接。这些科学家们在其用途上怀有不同的观点。有人认为这可能是为了关注,可能是为了学习,也可能是为了重建。或者它可能包括所有这些可能性。

NT:所以我们并不知道向后沟通是什么。您正在将重构组合进您构建的神经网络(或向后沟通)中,即使我们不能够确定那就是大脑的运作方式?

GH:是的。

NT:这不是作弊吗?我的意思是,你是想做一个与大脑一样的东西,但你目前压根不知道大脑是如何运作的。

GH:并不是。我不是在做计算神经科学。我也不是想模拟大脑的运作方式。我其实是被大脑激发灵感,说“这玩意能用,如果我们想做些什么类似有效的东西,我们应该从这里来找灵感。“。

所以这是”神经启发“,而不是神经模型。整个模型,包括我们使用的神经元,都是受到神经元有很多层联系并且此联系的强度能够被改变这一事实的启发。

NT:这很有趣。那么如果我从事计算机科学,而且我正在研究神经网络并想要击败你,那么一种选择就是建立自上而下的沟通机制,并将其建立在其他脑科学模型上。所以是基于学习而不是重建。

GH:如果他们确实是更好的模型那么你就赢了。就这样。

NT:那真是非常有趣。让我们转到更一般的话题吧。这么说来,神经网络将能够解决各种问题。那么有没有神经网络无法捕获的人类大脑的奥秘?例如,情绪......

GH:不。

NT:那么爱可以通过神经网络重建吗?意识可以重建吗?

GH:当然。一旦你弄明白这些东西意味着什么。我们是神经网络,对吧?意识是我特别感兴趣的东西。没有它我还是能活下来,但......人们并不真正知道它们的含义。有各种不同的定义。我认为这是一个非常科学的术语。100年前,如果你问人们什么是生活,他们会说,“生物有生命力,当它们死亡时,生命力消失了。这就是活着和死亡之间的区别,即你是否具有生命力。

“现在我们不再有生命力这一表述了,我们只是认为这是一个科学发展前的伪概念。一旦你学习一些生物化学和分子生物学,你就不再需要生命力这一解释了,你将能够理解它是如何运作的。我认为这与意识相同。我认为意识是一种用某种特殊本质来解释心理现象的尝试。

而这个特殊的本质,你其实并不需要它。一旦你能够真正解释它,那么你将能够解释我们如何做出那些让人们认为我们具有意识的行为,你也将能够解释所有这些不同的意识含义——完全不需要借助于什么‘意识’这一概念。

NT:所以没有无法创造的情感?无法创造的思想?一旦我们真正理解了大脑是如何工作的,那么在理论上,人脑所有的功能都能够被一个完整构造的神经网络所执行?

GH:约翰列侬有一首歌,听起来很像你刚才所说的情况。

NT:你对此有100%的信心吗?

GH:不,我是贝叶斯派,所以我有99.9%的自信心。

NT:好的,那0.1是什么?

GH:那是说,比如,我们所有人、所有这些都是一个庞大模拟的一部分。

NT:那倒是不假。那么我们从计算机工作中学到了什么呢?

GH:所以我认为我们在过去十年中所学到的是,如果你采用一个具有数十亿个参数的系统,以及一个目标函数——就像用文字填补空白一样——它将能够比你预期的更加完美地运行。您可能会想到(传统AI学派中的大多数人也都会这么想),采用具有十亿个参数的系统,用随机值启动它们,测量目标函数的梯度(即对于每个参数,如果你稍微改变一下这个参数,看目标函数将如何变化)——然后在改善目标函数的方向上改变它。

你可能会觉得这将是一种陷入困境的无望算法。但事实证明,这是一个非常好的算法。你越将其规模扩大,它就越好。这真的只是一个实践上的发现。确实有一些相关理论出现,但它基本上算是一个实践发现。现在,因为我们已经发现了这一点,它使得”大脑计算某些目标函数的梯度,并更新突触强度的权重以遵循该梯度“这一猜想更加合理。我们只需弄清楚它如何进行降级,以及目标函数是什么。

NT:但我们当时对大脑并不了解吧?我们并不了解重新加权?

GH:这曾是一个理论。很久以前,人们认为这是一种可能性。但总会有一些传统的计算机科学家说:“这一切都是随机的,你只需通过梯度下降来学习它——这对于十亿个参数来说永远不会有用。你必须掌握很多知识。“我们现在知道这是错的;你可以随便输入起始参数,并学习一切。

NT:所以让我们把它扩展一下。当我们在模型上运行这些大规模测试时,根据我们对人类大脑功能的理解,我们可能会继续越来越多地了解大脑实际上是如何运作的。你认为这会最终导致这样一种情形吗——我们将人类大脑重新连接成更高效的机器?

GH:如果我们真的了解现状,我们应该能够让教育工作变得更好。我觉得我们会的。如果你最终能够了解你的大脑中发生了什么并且它如何进行学习,但你却无法为更好进行学习而适应环境,那真的是非常奇怪。

NT:未来几年内,您认为我们将如何利用我们对大脑的了解以及深度学习改变教育的运作方式?您会怎么改变教学课程?

GH:几年后,我不确定我们会学到多少东西。我认为改变教育的时间会被拖长。但是你可以看到现在的(机器人)助手正在变得越来越聪明。一旦它们能够真正理解对话,就可以与孩子进行对话并对他们进行教育。

NT:理论上,当我们更好地理解大脑时,你会根据我们知道他们将要学习的方式,让助手们与孩子们进行更好的对话。

GH:是的,我对此并没有太多考虑。这不是我的研究内容,但听起来确实很可信。

NT:我们将能够理解梦是如何运作的吗?

GH:是的,我对梦超级感兴趣。我至少有四种不同的做梦理论哦。

NT:让我们听一听呗,一,二,三,四。

GH:很久以前,有一些叫做Hopfield网络的东西,它们把记忆当做本地吸引子来学习。Hopfield发现,如果你试图把太多的记忆放进去,它们就会感到困惑。它们会把两个本地吸引子同时考虑进来并将其合并为二者之间的某种吸引子。

然后,Francis Crick 和Graeme Mitchison发现,我们可以通过”忘却“来摆脱这些假极小值。因此我们关闭输入,将神经网络置于随机状态,然后让它稳定下来。我们觉得这很糟糕,改变连接,这样你就不会一直稳定于那个状态。如果你这么做了的话,网络就能够存储更多的记忆了。

然后我和Terry Sejnowski反应过来:如果我们不仅有帮助储存记忆的神经元(姑且称之为名花有主的神经元),我们还有一些其他富余的神经元(姑且称之为形同单身的神经元),我们是否能够找到一种算法,能让这些富余的神经元也来协助存储记忆?

最后,我们想出了Boltzmann机器学习算法,它有着非常有趣的属性:输入数据,它在其他节点周围摇摇晃晃,玩到开心为止。一旦完成,它会基于两个单元节点是否处于激活(active)状态来增加所有连接的强度。

你还必须历经一个阶段:切断神经元的输入,你让它四处游荡并进入一个它满意的状态,当它玩爽了,你说:“把所有的活跃分子(激活的神经元)逮出来不让它们坐一块(减弱连接强度)”。

所以这里我这里在介绍玻尔兹曼算法的步骤。但实际上,这个算法背后有着深厚的数学背景,你在处理的问题,无非是如何改变连接关系,使得有着这些隐藏单元(hidden unit)的神经网络能够清楚地复现数据。同时,这个算法中,必须还有另一个阶段,我们称之为负面阶段。在网络没有输入的情况下运行时,它会“忘记”之前所有的状态。

我们每晚都要做好几个小时的梦。如果我随机叫醒你,你可以告诉我你刚刚梦到了什么,因为梦的信息都储存在你的短时记忆力。没错,你做了好几个小时的梦。

但是当你早上醒来时,你经常只能回忆起一串梦中的最后一梦,别的都想不起来了——这是件多么幸运的事情啊,因为梦的记忆越多,现实的记忆也会越少,你会无法分辨一段模糊的记忆究竟是真实发生的,还是梦里浮现的。那么,为什么我们不能够记得我们梦里发生的所有事情呢?Crick的观点是,梦的全部意义在于忘掉那些事情,这就如同你把所有学过的东西都还给老师了。

而Terry Sejnowski和我证明,实际上,这便是Boltzmann机器的最大似然的(maximum-likelihood)学习逻辑。这和做梦一样。

NT:我想谈谈你的其他理论。但是你在设计深度学习算法时,真的基于了梦的模式吗?研究图像数据集一段时间,重置,再次研究,再重置。

GH:是的,我们有些类似的机器学习算法。最早一些可以学习如何处理隐藏单元的算法都是基于Boltzmann机,但是它们效率很低。不过,我发现了一种对它们进行近似的方法,提高了它们的效率。这个方法才是把深度学习救回正轨的东西。那个方法就是限制性Boltzmann机的有效表述形式,它所做的,就是忘记学习过的一切。但是,这个神经网络不是真的在全程睡觉划水,它只是在运算完每个数据点之后,小小地走神一下。

NT:好的吧,所以这些机器人会做梦,梦里还在数山羊。我们接着来看看第二,第三和第四条理论吧。

GH:第二理论被称为睡眠唤醒算法(Wake Sleep Algorithm)。你的目的,是得到一个生成模型。所以你会想到,你想拥有一个可以生成数据的模型,这个网络模型里有着多层的特征检测器,并能够从高到低激活从高级到低级的特征,直到它直接激活了像素数据(输入数据)——像素数据就是图片的基本表述方式。你也当然想反向开车,你想做图像识别。

因此,你就有了一个由两个阶段组成的算法。在唤醒阶段,数据输入,神经网络做图像识别,不是学习用于识别的连接,而是学习生成连接。 所以数据进来,我激活了隐藏单位。

然后我学会让那些隐藏的单位善于重构那些数据,因此它正在学习在每一层进行重构。问题在于,你如何学习前向连接?我的想法是,如果你知道前向连接,你可以学习后向连接,因为你可以学习重建。

现在,事实证明,如果使用后向连接,你可以学习前向连接,因为你可以从顶部开始生成一些数据。由于你生成了数据,你知道了所有隐藏层的激活状态,因此您可以学习前向连接来恢复这些状态——这就是睡眠阶段。当你停止输入时,你只需生成数据,然后尝试重建生成数据的隐藏单位。因此,如果你了解了自上而下的连接,你也将学习自下而上的连接。

如果你知道自下而上的那些连接,你会学到自上而下的连接。(译者:个人理解,假想模型神经网络前向传播是一套权值,反向传播是另外一套权值,其一可知其二。)那么,如果你从随机的连接开始,并尝试交替使用两者,会发生什么呢?嘿,居然真的还能用。当然,为了更好的效果,你必须做各种调整,但是交替使用确实能用。

NT:好的吧,那你准备介绍一下另外2个理论吗?我们还有8分钟,是不是也许我们先问其他的问题?

GH:如果你再给我一个小时,我就能把另外2个家伙搞出来。

NT:好的吧,那我们还是来谈谈下一个话题吧。你接下来的研究是什么?你现在准备解决什么问题?

GH:你最终想做的,还是那些你没有完成的事情。我认为我可能会研究我从未完成的事情,我称之为胶囊网络,它是关于如何使用重构进行视觉感知的理论,以及如何将信息规划到正确的位置。在标准神经网络中,信息,网络层的活性,只是自动地存储;你不能决定将它们发送到哪里。胶囊网络的理念是决定在哪里发送信息。

现在,自从我开始研究胶囊网络以来,谷歌的其他一些非常聪明的人发明了transformer,transformer正在做和胶囊网络同样的事情。transformer决定在哪里路由信息,这是一个巨大的突破。

推动胶囊网络发展的另一动力是坐标系。当人类使用视觉时,他们是在使用坐标系的。如果它们在对象上使用了错误的坐标系,那么他们甚至无法识别该对象。给你举一个小栗子:想象一个四面体;它有一个三角形底座和三个三角形面,所有等边三角形。容易想象,对吗?现在想象一下用一个平面把它切开——你看到了一个正方形截面。

这就不容易想到这个对象其实是个四面体了吧,对吧?每次切片时,你通常都会得到一个三角形的截面。如何获得一个正方形的截面,并不好想。不,可能这一点都不好想。好的,但我会帮你得到这个诡异的形状。我需要你的笔。想象一下,如果你拿这样的笔,你会得到这样的形状,另一支像这样的直角笔,你将这支笔上的所有点连接到这支笔上的所有点。那是一个坚实的四面体。

好的,你看到它其实是另外一套坐标系,四面体的边缘,这两条线和坐标系的标线重合。如果你用那一套坐标系想象一个四面体,很明显,这样,在顶部你有一个长方形,在底部我们也得到一个长方形,中间有一个正方形。所以现在很清楚了,你如何切割它能够得到一个正方形的截面,前提是你参考的是什么坐标系。

因此很明显,对于人类而言,坐标框架对于感知非常重要。

NT:但是你是如何在你的模型中加入参考系信息的呢?我的意思是,你是如何改正了你在1990年代犯的错误:尝试把规则带入系统中却使之与系统非监督学习的本质产生矛盾?

GH:你对这个错误的总结非常到位。我太固执了以致于这变成了一个大错误,我现在就想弥补一点过失。这有点像尼克松总统当年与中国谈判一样。实际上,我在这个事情上,发挥了不好的作用。

NT:所以你现在的工作主要是针对于视觉识别,还是可以看做提高当前坐标系规则的研究?

GH:这个技术当然能用在其他领域里,但是我的兴趣主要在于怎么把它用在视觉识别上。

NT:深度学习曾经是一个独特的东西,我的意思是,深度学习是深度学习,人工智能是人工智能(AI)。现在,深度学习变成了AI的同义词,同时现在AI变成了热门的营销术语,基本上意味着以某些方式驱动机器。作为帮助创建这一术语的人,您是如何看待这个现象的?

GH:曾几何时,人工智能,意味着逻辑主义/符号主义,研究人员用计算机的符号字符串模拟人类的认知。还有神经网络,就意味着你在使用神经网络进行学习。不同的企业,不同的学派,百家争鸣,大放异彩。这就是我当年成长的环境。而现在我看到好多人一边常年一直在说神经网络就是废物,一边又在说“我是人工智能专业的教授,我需要钱”。这就很烦人。

NT:嗯,我还有时间,就再问一个问题。在一次采访中,谈到人工智能,你说,好吧,把它想象成一个反铲——一个可以挖坑的机器,用的不好就会伤到自己。解决问题的关键是,当你准备使用反铲作业时,要好好看着准备挖坑的铲子和自己的一亩三分地,不要让铲子碰了脑袋。 对于你的工作而言,你做出的什么选择和这个例子很接近?

GH:我猜我永远不会主动应用人工智能技术制造武器。我的意思是,你的确可以设计出功于杀戮的反铲。但是我觉得这一定是反铲最差劲的应用了,我永远不会干这事的。

NT:好的,Geoffrey Hinton。这真是一场令人印象深刻的访谈。满满的都是干货。我们“明年”还会回来的——带着第三和第四的“做梦”理论。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4765

    浏览量

    100571
  • 人工智能
    +关注

    关注

    1791

    文章

    46903

    浏览量

    237681
  • 深度学习
    +关注

    关注

    73

    文章

    5493

    浏览量

    121003

原文标题:Geoffrey Hinton专访:如何解释神经网络的变迁

文章出处:【微信号:BigDataDigest,微信公众号:大数据文摘】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    详解深度学习神经网络与卷积神经网络的应用

    在如今的网络时代,错综复杂的大数据和网络环境,让传统信息处理理论、人工智能与人工神经网络都面临巨大的挑战。近些年,深度学习逐渐走进人们的视线
    的头像 发表于 01-11 10:51 1927次阅读
    详解<b class='flag-5'>深度</b><b class='flag-5'>学习</b>、<b class='flag-5'>神经网络</b>与卷积<b class='flag-5'>神经网络</b>的应用

    【专辑精选】人工智能之神经网络教程与资料

    电子发烧友总结了以“神经网络”为主题的精选干货,今后每天一个主题为一期,希望对各位有所帮助!(点击标题即可进入页面下载相关资料)人工神经网络算法的学习方法与应用实例(pdf彩版)卷积
    发表于 05-07 19:18

    神经网络资料

    基于深度学习神经网络算法
    发表于 05-16 17:25

    基于赛灵思FPGA的卷积神经网络实现设计

    作者:Nagesh Gupta 创始人兼 CEOAuviz Systems Nagesh@auvizsystems.com凭借出色的性能和功耗指标,赛灵思 FPGA 成为设计人员构建卷积神经网络
    发表于 06-19 07:24

    卷积神经网络深度卷积网络:实例探究及学习总结

    深度学习工程师-吴恩达》03卷积神经网络深度卷积网络:实例探究 学习总结
    发表于 05-22 17:15

    解析深度学习:卷积神经网络原理与视觉实践

    解析深度学习:卷积神经网络原理与视觉实践
    发表于 06-14 22:21

    深度神经网络是什么

    多层感知机 深度神经网络in collaboration with Hsu Chung Chuan, Lin Min Htoo, and Quah Jia Yong. 与许忠传,林敏涛和华佳勇合作
    发表于 07-12 06:35

    卷积神经网络模型发展及应用

    卷积神经网络模型发展及应用转载****地址:http://fcst.ceaj.org/CN/abstract/abstract2521.shtml深度学习是机器学习和人工智能研究的最新
    发表于 08-02 10:39

    神经网络深度学习》讲义

    神经网络深度学习》讲义
    发表于 07-20 08:58 0次下载

    快速了解神经网络深度学习的教程资料免费下载

    本文档的详细介绍的是快速了解神经网络深度学习的教程资料免费下载主要内容包括:机器学习概述,线
    发表于 02-11 08:00 33次下载
    快速了解<b class='flag-5'>神经网络</b>与<b class='flag-5'>深度</b><b class='flag-5'>学习</b>的教程<b class='flag-5'>资料</b>免费下载

    综述深度神经网络解释方法及发展趋势

    深度神经网络具有非线性非凸、多层隐藏结构、特征矢量化、海量模型参数等特点,但弱解释性是限制其理论发展和实际应用的巨大障碍,因此,深度神经网络
    发表于 03-21 09:48 18次下载
    综述<b class='flag-5'>深度</b><b class='flag-5'>神经网络</b>的<b class='flag-5'>解释</b>方法及发展趋势

    3小时学习神经网络深度学习课件下载

    3小时学习神经网络深度学习课件下载
    发表于 04-19 09:36 0次下载
    3小时<b class='flag-5'>学习</b><b class='flag-5'>神经网络</b>与<b class='flag-5'>深度</b><b class='flag-5'>学习</b>课件下载

    什么是神经网络?什么是卷积神经网络

    在介绍卷积神经网络之前,我们先回顾一下神经网络的基本知识。就目前而言,神经网络深度学习算法的核心,我们所熟知的很多
    的头像 发表于 02-23 09:14 3372次阅读

    卷积神经网络的工作原理 卷积神经网络通俗解释

    卷积神经网络的工作原理 卷积神经网络通俗解释  卷积神经网络(Convolutional Neural Network, CNN)是一种众所周知的
    的头像 发表于 08-21 16:49 3695次阅读

    卷积神经网络深度神经网络的优缺点 卷积神经网络深度神经网络的区别

    深度神经网络是一种基于神经网络的机器学习算法,其主要特点是由多层神经元构成,可以根据数据自动调整神经
    发表于 08-21 17:07 3946次阅读