0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

深度强化学习是否已经到达尽头?

电子工程师 来源:YXQ 2019-05-10 16:34 次阅读

近日,Reddit一位网友根据近期OpenAI Five、AlphaStar的表现,提出“深度强化学习是否已经到达尽头”的问题。此问题一出便引起了众网友的热烈讨论,观点向一边倒:根本没到尽头!

深度强化学习已经达到了尽头?

前几日,OpenAI Five摆擂三天,以99%的胜率秒杀人类玩家。但值得注意的是,OpenAI Five是接受了45000年的训练,而人类只通过一天的时间便找到了战胜它的策略。

OpenAI Five和AlphaStar都是深度强化学(DRL)最大规模、最精细的实现方式。但即便是AlphaStar上场,估计结果都是一样的。

Reddit网友便针对此现象,抛出了这样一个问题:

有很多研究正在进行,以使DRL更具数据效率,并使深度学习对于分布不均和对抗性的例子更加强大,但与人类的差距是如此极端以至于我怀疑是不是快要达到深度学习的极限了?亦或还是有希望能够推动范式的发展?

许多网友比较倾向的观点是:根本没有达到所谓的极限,而只是可能到了人们不再用“智能”这样的词来谈论DRL的地步。

网友hobbesfanclub认为:

我觉得我们才刚刚开始。每天都有很多东西被释放出来,我甚至都跟不上。几天前我认为是最先进的技术突然间就不存在了,因为在这个领域里有大量的工作要做。对于我们这些在这一领域工作的人来说,这些进步仍然是令人难以置信的,在我看来,真正令人印象深刻的是,这些技术在整体上仍然非常年轻……

网友adventuringraw认为:

这是一个很有趣的问题,关于深度学习本身也有类似的讨论——我们已经达到神经网络的极限了吗?如果没有根本性的范式转变,是否更不可能?

但是你看,在神经网络上有各种各样的方法,这些方法在2012年可能会让一些人大吃一惊。很明显,GAN、VAE、神经风格迁移、深度强化学习本身就属于神经网络范畴内,与其说深学习被取代了,不如说它被置于“堆栈”之下了。它是一个组成部分,一个解决问题的策略,一种思考方式。即使是深度网络自己,也是建立在过去各种进步和见解的基础上的。

我个人的想法是:这似乎是无模型方法的一个基本问题。你需要在特征空间中进行密集的覆盖,或者换句话说,你知道在一个已经完全探索过的领域里该做什么,但你不一定能够推断和推理出新的环境,你需要一个全局模型来进行推理。

我之前看过基于Google Brain的'SimPLe'模型的RL论文,开始向基于模型的RL过渡并不是一个全新的概念。但是在我们得到一个能够在空间中进行抽象推理的智能体之前,还有一些严重的问题有待解决:

它如何学习空间中相关的独立实体、动作、等等?

它能在无人监督的情况下完成吗?

它如何将当前的世界理解压缩为一个更低的维度表示,从而完美地捕捉到解决当前问题最需要的维度?

它能学会周围环境的地图吗?

创建分层长期计划的最佳方法是什么?

......

即使只使用图像分类,我们仍然很难提取基于形状的特征而不是基于纹理的特征。一般来说,局部模式似乎比全局模式更容易获取,所以我想OpenAI Five更容易利用局部模式所采用的策略,这使得它很容易受到具有正确洞察力的玩家的攻击。

我一直在读Judea Pearl的《因果关系》(Causality),有一些有趣的东西是值得思考的。我不认为他的因果关系模型是我们需要让智能体明确地向世界学习什么东西,但是若是让一个智能体能够完全适应新环境并在宏观规模上进行规划的整体似乎是需要它能够反事实地推理,并对它自己的世界有一个强有力的理解。

考虑到我们才刚刚开始了解创建一个鲁棒的图像分类器需要什么(即使是在有监督的环境中,更不用说无监督的环境了),我认为在深度强化学习完全成长之前,我们已经有了一些基础理论。

但非常疯狂的事情是,我们似乎正在逐步消除了这些障碍。而另一方面,却出现 了一个可以玩Dota2、学会合作、学会对世界进行推理的无监督系统,这似乎让人觉得我们快要到达技术的顶尖了,但实际上并没有。所以我对于OpenAI没有到达那个点并不感到惊讶。但对于接下来即将发生的事情还是抱有很大的期待的。

该问题似乎在reddit的讨论热度很高,但是纵观网友们的评论,可以很容易看出对这个问题的看法是向一边倾倒的:

深度强化学习远未及极限,还有很长的一段路要走

“寒冬论”四起,荣耀属于熬过寒冬的人

但其实,人们不仅会对深度强化学习提出“寒冬论”的言论,深度学习亦是如此。

多年来,深度学习一直处于所谓的人工智能革命的最前沿,许多人相信深度学习将带领我们进入通用AI时代。在2014,2015,2016年,很多事件每每推动人们对 Ai的理解边界。例如Alpha Go等。特斯拉公司甚至宣称:全自动驾驶汽车正在路上。

但是现在,2018年中期,事情开始发生变化。从表面上看,NIPS会议仍然很火,关于AI的新闻也很多,Elon Mask仍然看好自动驾驶汽车,而Google CEO不断重申Andrew Ng的口号,即AI比电力作出了更大的贡献。但是这些言论已经开始出现裂纹。裂纹最明显的地方是自动驾驶 - 这种现实世界中的实际应用。

当ImageNet有了很好的解决方案(注意这并不意味着视觉问题得到已经解决),该领域的许多杰出研究人员(甚至包括一直保持低调的Geoff Hinton)都在积极地接受采访,在社交媒体上发布内容(例如Yann Lecun,吴恩达,李飞飞等)。他们的话,可以总结为:世界正处在一场巨大的AI革命中。然而,好几年已经过去了,这些人的Twitter信息变得不那么活跃了,比如 Andrew Ng:

2013年 - 每天0.413推文

2014 年- 每天0.605条推文

2015 -每天0.320条推文

2016 -每天0.802推文

2017 -每天0.668推文

2018 -每天0.263推文(至5月24日)

也许这是因为Andrew 的某些夸张言论,在当下会被进行更详细的审查,如下面的推文所示:

不可否认,深度学习的热度已经大大下降,赞美深度学习作为AI终极算法的推文少得多了,而且论文正在变得不那么“革命”,现在大家换了个词,叫:进化

自从Alpha Zero以来,DeepMind已经许久没有产出令人惊叹的东西了。OpenAI更是相当的低调,他们最近一次出现在媒体的报道上,是他们做了一个自动打Dota 2的机器人 [我一开始以为,这是跟 Alpha Go 一样的伟大,然后后来证明,并不是]。

从某些文章来看,貌似Google实际上并不知道如何处理Deepmind,因为他们的结果显然不如原先预期的那么实际......至于杰出的研究人员,他们一般都为了funding 在各种政府机构间游走,Yann Lecun甚至从 Facebook的AI首席科学家的位置上下台了。

像这种从富有的大公司向政府资助的研究机构的逐渐转变表明,这些公司对这类研究的兴趣(我认为是谷歌和Facebook)实际上正在慢慢消失。这些都是早期迹象,没有人大声的宣扬,但这些行动就像肢体语言,也能传达某种意思。

深度学习的一个重要口号是它可以轻松的扩展。我们在2012年拥有60M参数的AlexNet,现在我们已经有至少1000倍的数量的模型了吗?好吧,我们可能会这样做,但问题是 - 这些东西有1000x的能力提升吗?100倍的能力?openAI的研究派上用场:

因此,就视觉应用而言,我们看到VGG和Resnets在计算资源应用的一个数量级上饱和(就参数数量而言实际上较少)。Xception是谷歌Inception架构的一种变体,实际上它在ImageNet上的表现只是略微优于其他模型,因为AlexNet基本上解决了ImageNet。

因此,在比AlexNet计算量提高100倍的情况下,我们在视觉方面已经有了近乎饱和的体系结构,换句话说,图像分类的精确已经提不动了

神经机器翻译是所有大型网络搜索玩家(google, baidu, yahoo 等)的一大努力,难怪它有多少机器就用多少机器(尽管谷歌翻译仍然很糟糕,虽然已经在变得更好了)。

该图上的最新三点有趣地显示了Deep Mind和OpenAI应用于游戏的强化学习相关项目。特别是AlphaGo Zero和稍微更通用的Alpha Zero需要大量计算,但不适用于真实世界的应用程序,因为需要大量计算来模拟和生成这些数据来供这些模型使用。

好的,现在我们可以在几分钟内完成AlexNet的训练,但是我们可以在几天内训练一个比AlexNet大1000倍,质量更好的模型吗?显然不是。

迄今为止,对深度学习的声誉打击最大的事件来自自动驾驶领域。一开始人们认为End-to-End的深度学习可以以某种方式解决自动驾驶问题 (Nvidia特别推崇这一理念)。现在我觉得地球上应该没有人还相信这一点(尽管我可能是错的)。

看看前年加州车辆管理局DMV给各个厂商的自动驾驶车辆人为干预报告,Nvidia的自动驾驶汽车在缺少人为干预的情况下,连开10英里都做不到

自2016年以来,特斯拉自动驾驶系统发生了几起事故,其中一些事件是致命的。可以说,特斯拉的自动驾驶辅助技术不应该与自动驾驶混淆起来虽然在核心上它依赖于同一种技术。

都到今天了,它仍然不能自动停在路口,不能识别交通信号灯,甚至不能通过环形交叉路口。那是在2018年5月,在承诺特斯拉将自动驾驶从西海岸开到东海岸的几个月后(尽管传言是他们已经尝试过但是在小于30次人工干预的情况下无法实现)。几个月前(2018年2月),伊隆马斯克(Elon Musk)在一次电话会议上被问及海岸到海岸的行驶问题时重复说到:

“我们本可以实现海岸到海岸的驾驶,但它需要太多的专门代码来有效地进行游戏;或者使代码变得脆弱一些,这样它只适用于一个特定的路线,这不是通用的解决方案。

我对神经网络方面取得的进展感到非常兴奋。但是看起来并没有太多的进展。它会觉得这是一个蹩脚的司机。就像…好吧,这是一个非常好的司机。像“Holy Cow!”

因此,有许多人开始对深度学习提出“寒冬论”:

预测人工智能的冬天就像是猜测股市崩盘一样——不可能精确地知道发生的时间,但几乎可以肯定会在某个时刻发生,就像股市崩盘之前,有迹象表明会发生危机,但在当时的环境中,却很容易被大家忽视。

在我看来,深度学习已经出现了明显的下降迹象。我并不知道这个冬天会有多“深度”,我也不知道接下来会发生什么,但我可以肯定,这个冬天一定会来临,并且只会来的比想象的要早。

然而,上个月2018年图灵奖公布,深度学习三巨头:Yoshua Bengio、Geoffrey Hinton、Yann LeCun获奖,三人瓜分100万美元奖金。

Yann LeCun、Geoffrey Hinton、Yoshua Bengio

去年,”深度学习寒冬论“频起,三位大神也在多个场合对”寒冬“做出了回应。实际上,三人对“寒冬”早有抗体,在上世纪八十年代,Geoffrey Hinton等人坐了数年的冷板凳,直到本世纪AI的再度爆发。

不仅如此,Geoffrey Hinton还提出新的神经网络模型Capsule Network(胶囊网络),试图找到解决深度学习缺陷的新方法,这位71岁的老人熬过最冷的AI冬天,并且认定下一个“冬天”不会到来。

事实证明,荣耀是属于熬过寒冬的人。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 人工智能
    +关注

    关注

    1789

    文章

    46545

    浏览量

    236825
  • 深度学习
    +关注

    关注

    73

    文章

    5456

    浏览量

    120855

原文标题:灵魂一问:深度强化学习终到尽头?

文章出处:【微信号:smartman163,微信公众号:网易智能】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    GPU深度学习应用案例

    GPU在深度学习中的应用广泛且重要,以下是一些GPU深度学习应用案例: 一、图像识别 图像识别是深度学习
    的头像 发表于 10-27 11:13 252次阅读

    AI大模型与深度学习的关系

    AI大模型与深度学习之间存在着密不可分的关系,它们互为促进,相辅相成。以下是对两者关系的介绍: 一、深度学习是AI大模型的基础 技术支撑 :深度
    的头像 发表于 10-23 15:25 253次阅读

    谷歌AlphaChip强化学习工具发布,联发科天玑芯片率先采用

    近日,谷歌在芯片设计领域取得了重要突破,详细介绍了其用于芯片设计布局的强化学习方法,并将该模型命名为“AlphaChip”。据悉,AlphaChip有望显著加速芯片布局规划的设计流程,并帮助芯片在性能、功耗和面积方面实现更优表现。
    的头像 发表于 09-30 16:16 362次阅读

    FPGA做深度学习能走多远?

    ,共同进步。 欢迎加入FPGA技术微信交流群14群! 交流问题(一) Q:FPGA做深度学习能走多远?现在用FPGA做深度学习加速成为一个热门,深鉴科技,商汤,旷视科技等都有基于FPG
    发表于 09-27 20:53

    深度学习中的时间序列分类方法

    时间序列分类(Time Series Classification, TSC)是机器学习深度学习领域的重要任务之一,广泛应用于人体活动识别、系统监测、金融预测、医疗诊断等多个领域。随着深度
    的头像 发表于 07-09 15:54 594次阅读

    深度学习中的无监督学习方法综述

    深度学习作为机器学习领域的一个重要分支,近年来在多个领域取得了显著的成果,特别是在图像识别、语音识别、自然语言处理等领域。然而,深度学习模型
    的头像 发表于 07-09 10:50 349次阅读

    深度学习与nlp的区别在哪

    深度学习和自然语言处理(NLP)是计算机科学领域中两个非常重要的研究方向。它们之间既有联系,也有区别。本文将介绍深度学习与NLP的区别。 深度
    的头像 发表于 07-05 09:47 716次阅读

    深度学习常用的Python库

    深度学习作为人工智能的一个重要分支,通过模拟人类大脑中的神经网络来解决复杂问题。Python作为一种流行的编程语言,凭借其简洁的语法和丰富的库支持,成为了深度学习研究和应用的首选工具。
    的头像 发表于 07-03 16:04 498次阅读

    深度学习与卷积神经网络的应用

    随着人工智能技术的飞速发展,深度学习和卷积神经网络(Convolutional Neural Network, CNN)作为其中的重要分支,已经在多个领域取得了显著的应用成果。从图像识别、语音识别
    的头像 发表于 07-02 18:19 719次阅读

    深度学习与传统机器学习的对比

    在人工智能的浪潮中,机器学习深度学习无疑是两大核心驱动力。它们各自以其独特的方式推动着技术的进步,为众多领域带来了革命性的变化。然而,尽管它们都属于机器学习的范畴,但
    的头像 发表于 07-01 11:40 1069次阅读

    通过强化学习策略进行特征选择

    更快更好地学习。我们的想法是找到最优数量的特征和最有意义的特征。在本文中,我们将介绍并实现一种新的通过强化学习策略的特征选择。我们先讨论强化学习,尤其是马尔可夫决策
    的头像 发表于 06-05 08:27 301次阅读
    通过<b class='flag-5'>强化学习</b>策略进行特征选择

    深度解析深度学习下的语义SLAM

    随着深度学习技术的兴起,计算机视觉的许多传统领域都取得了突破性进展,例如目标的检测、识别和分类等领域。近年来,研究人员开始在视觉SLAM算法中引入深度学习技术,使得
    发表于 04-23 17:18 1204次阅读
    <b class='flag-5'>深度</b>解析<b class='flag-5'>深度</b><b class='flag-5'>学习</b>下的语义SLAM

    为什么深度学习的效果更好?

    导读深度学习是机器学习的一个子集,已成为人工智能领域的一项变革性技术,在从计算机视觉、自然语言处理到自动驾驶汽车等广泛的应用中取得了显著的成功。深度
    的头像 发表于 03-09 08:26 563次阅读
    为什么<b class='flag-5'>深度</b><b class='flag-5'>学习</b>的效果更好?

    什么是深度学习?机器学习深度学习的主要差异

    2016年AlphaGo 击败韩国围棋冠军李世石,在媒体报道中,曾多次提及“深度学习”这个概念。
    的头像 发表于 01-15 10:31 939次阅读
    什么是<b class='flag-5'>深度</b><b class='flag-5'>学习</b>?机器<b class='flag-5'>学习</b>和<b class='flag-5'>深度</b><b class='flag-5'>学习</b>的主要差异

    深度学习技术与边缘学习技术的不同之处

    如今,AI技术的广泛应用已经成为推动制造和物流领域自动化的核心驱动力。康耐视所推出的深度学习和边缘学习技术,这两种基于AI的技术,在工业自动化领域有着广泛的应用前景。然而,由于这两种技
    的头像 发表于 11-17 10:44 527次阅读