几天之前,国内科技媒体,尤其是AI媒体之间刷屏了一篇文章。其原作者是机器视觉专家Filip Piekniewski ,标题叫做《AI Winter is Well on its Way》。这篇文章在国内有各种翻译的版本,并配了很多标题。但主旨差不多是一样的:深度学习完了!AI寒冬又要来了!
无论是国内还是国外,在社交媒体上“看热闹就不嫌事大”属于一种基本操作。所以这篇文章还是短期内引发了大量关注。比如我们会看到国内一些媒体以这篇文章为依据,开始提出人工智能要完了;人工智能脱下皇帝新衣等等观点。
可是这篇文章究竟是否靠谱呢?用大神Yann LeCun的评价,这篇文章的观点属于“非常无知very uninformed”。确实其中也有不少近似常识错误的部分,不是很值得讨论。比如文章中认为,深度学习要糟糕的证据之一,是深度学习专家们发的相关推特越来越少了。文章中还煞有介事地分析了吴恩达发推特的数量……
这个论证逻辑实在有点牵强,一个技术诞生好几年后,当然难以与它刚刚面世时的流量热度相提并论。而且另一方面,似乎全世界的人均发推数也在大幅下降……
但我们未尝不能把目光放的更远一点:比如客观来看,反深度学习思潮已非一日之寒。各种关于深度学习的争论,以及对其泡沫的怀疑,在近半年间尘嚣之上。这当然不会完全没有道理。而且围绕在深度学习身旁的争议,经常有着复杂的动机和话语背景。而被媒体,尤其是翻译后媒体所展示出来的,不过是冰山一角而已。
那么或许我们可以从那篇《AI寒冬就要来了》的文章里,去观察一下这场“深度学习的王座保卫战”。或许这可以给我们一些线索,来判断AI之冬到底是远在天边还是触手可及。
Filip Piekniewski对深度学习的质疑一共有这么几项证据:
1. 关于深度学习的推特在减少……这个我们就不多聊了。
2. 大公司对AI的兴趣正在消退。
3. 深度学习没有证实“架构可以无限延展”的传闻。
4. 接二连三出现的自动驾驶事故让深度学习失去价值。
这四大证据,得出的结论就是AI寒冬就像股市崩盘一样,很快就会发生。不得不说,这个逻辑链里的槽点还是相当密集的。
自动驾驶事故,是深度学习的锅吗?
首先来我们回到备受争议的自动驾驶事故。Filip Piekniewski认为,Uber在坦桑尼亚州撞死人的那起事件,直接证明了深度学习的无效性。原因在于报告显示,AI系统没有认出视线范围内的行人。
这个推论乍听起来有理有据的,但仔细一想绝对可谓强行甩锅。这就像一辆车因为发动机熄火导致发生了车祸,那么原因可能有很多,比如车主没有好好保养;汽车制造商有质量问题;汽车零部件生产商有问题;甚至是意外因素。但实在很难想象把原因甩给内燃机技术,以及相关学术界。
当然,深度学习目前可不像内燃机一样经过了千锤百炼。但脱离具体的解决方案与算法、零部件、车载系统、厂商之间的技术差异等等因素,去质疑宏观技术,似乎也是不妥。更何况深度学习也难以被视为无人驾驶场景中的最核心技术。
比如Uber的事故率可谓出名的高,但Waymo的事故率却出名的低。那么究竟他们都使用的某种技术不行,还是厂商不行呢?这大概不是个难以回答的问题。
换个角度想,假如深度学习非常炸裂,达到了毁天灭地的程度,于是无人驾驶就成熟到可以不经过任何测试与研究,马上就取代人类司机安全上路了吗?好像也不是。
所以把个别厂商的安全事故要甩给大家都用的底层技术,实在有点甩锅的嫌疑。
大公司放弃人工智能了吗?
Filip Piekniewski提出大公司对人工智能的兴趣正在衰退。比如有媒体报道谷歌正在不知道拿DeepMind怎么办(这篇文章之后没多久,谷歌I/O大会里又着重强调了DeepMind的技术),而DeepMind和OpenAI这两个深度学习王牌公司如今静悄悄的没什么声音,结论是Facebook和谷歌开始展露出从AI撤退的意图。
那这个意图可能确实有点太隐晦了。就像Yann LeCun批评的那样,谷歌、Facebook和微软这样的大公司,近期对AI的加注和加速招聘人才都是显而易见的。这个时间段最有代表性的可能是微软,最近凭借一通紧密关联AI的神操作,微软股价涨出了新高。谷歌和Facebook,甚至亚马逊的进一步AI化都非常明显。而谷歌,可就连军方AI项目都那么地不离不……
文章提到了另一点,是DeepMind在AlphaGo之后就没有什么惊人表现了。当然每个人对于惊人的定义是不同的,但从我们的角度看,DeepMind这两年在强化学习和仿生AI的研究上,成果是非常显著的。它与谷歌能否长期兼容当然是另一个商业层面的问题,仅仅就技术表现而言,绝不可能每一个技术进步都有AlphaGo的传播性和公关价值。
当然,值得注意的是,DeepMind确实正在越来越少提出深度学习相关的技术,反而强化学习正在成为这家公司新的关键词。
泡沫与不确定性,确实弥漫在DL身旁
整体而言,这篇刷屏文章中相对靠谱的一个怀疑,是关于深度学习的框架延展性问题。13到16年间,确实弥漫过很多对深度学习的过分吹捧,并且其中很大部分来自于科学家。其中一个论调,是深度学习的特殊性让其架构可以无限增长,于是智能也就会停不下来地几何级扩张。
但在实践中,这显然不靠谱。首先是无限增长架构效果并不一定好,这在很多过分复杂的模型中都得到了印证;其次过于复杂的架构,同时也意味着巨大的能耗和庞大的数据需求量,这都是今天无法负担的。
这类赤果果的打脸,在深度学习身上已经发生了不少。由于深度学习技术提出时,确实让学术界和产业界看到了非常可观的延展空间,以及把很多抽象能力计算化的可能。而在竞技、视觉以及自然语言翻译等领域,深度学习也的确带来了不可替代的提升。
于是无论圈内还是圈外,关于深度学习就是那个“终极算法”,人类可以借由DL一路达到通用智能等等言论蜂拥而至。而深度学习之所以被很多科学家反感,这些反常识的言论其实占据了主要原因。
这些言论和乐观估计是否带来了资本和商业市场上的泡沫呢?可以说是绝对有的,而且恐怕美国比中国更甚。这些因素,加上深度学习技术一些无法被攻破的先天不足:比如严重的黑箱性、数据依赖性,以及对动态模拟的不足等等,共同组成了一个不稳定空间。
尤其在AI尝试走向商业化的时候,这些不稳定或许会发展为定时炸弹。好在目前来看,商业应用初级深度学习的技术红线,还有非常遥远的距离。
而即使是“反深度学习联盟”中最大的旗帜Marcus也认为,在功能架构上来说,深度学习可能是今天最好的解决方案,虽然它有这样或那样的问题。
评论
查看更多