还记得那个会上下楼梯、会开门、还会端茶倒水的波士顿动力的机器狗 Spot 吗?
这个曾经刷屏朋友圈的网红机器人终于发货了,这也是波士顿动力第一款商用的产品。
当智能机器离人类生活越来越近的时候,多少给人带来类似科幻片的恐慌。毕竟人类的想法是让这些机器越来越智能,或许让他们拥有自主意识只是时间早晚的问题。
AI,在信息爆炸年代备受重用,几乎每一个搜索引擎、短视频App(快手、抖音)、电商购物平台等消费和内容的聚合地,都由AI算法决定推荐的内容,AI确实已无处不在。
利用人类每天接触的信息,以植入认知、密集投放、强化认知的方式改变人类的倾向、选择、心智,甚至让人类接受哪怕与事实不符的意识,某种程度上使得人类的自由意识遭到前所未有的威胁。
今年4月份,《未来简史》作者,以色列著名历史学家尤瓦尔·赫拉利曾说过,AI与生物技术的结合,将可能给人类长期引以为傲的“自由意志”“独立思考”“情感表达”带来重大影响甚至颠覆。
不少人担心,当5G+AIoT爆发之时,或是AI“意识觉醒”之日;AI伦理道德是AI“意识觉醒”之路上的北极星,指向了共生和共赢,抑或是破坏和灾难。
(本文共3700字,阅读约需要15分钟)
当人工智能具备意识
谈及人工智能,就不能不谈及LSTM模型。
简单来说,就是在神经网络上加入记忆的概念,使模型可以记住长时间序列上的信息,并作出预测。AI能写出语句更通顺的文章、与人类进行流畅自然的多轮对话等等神奇能力,都建立在这一能力基础上。
随后很长一段时间内,科学家们对神经网络的记忆进行了一系列的补充和扩展。比如引入注意力机制,让LSTM网络可以对信息进行长期而精确的跟踪。再比如运用外部记忆来增强时序生成模型,提升卷积网络的性能。
总的来说,记忆能力的提升,一方面赋予了神经网络对关系进行复杂推理的能力这使其智能得以明显提高;而在应用端,写作、翻译、客服系统等智能系统的体验也大幅度升级。某种程度上,记忆是AI撕掉“人工智障”这一印象标签的开始。
不过,拥有记忆力,也代表着两个问题:一是神经网络必须要学会遗忘,从而释放出存储空间,只保留那些重要信息。比如某部小说中一个篇章结束,那模型应当重置相关信息,只保留对应的结果。
另外,神经网络的“潜意识”也需要被警惕。简单来说,就是经过在敏感的用户数据上进行训练之后,机器学习模型被发布给公众时会不会不自觉地带出那些敏感信息呢?
伯克利的研究人员为了探寻模型的“无意记忆”,进行了三个阶段的探索:
首先,防止模型的过度拟合。通过对训练数据进行梯度下降和最小化神经网络的损失,保证最终模型在训练数据上达到接近100%的精度。
然后,给机器一个理解语言底层结构的任务。这通常是通过在一系列单词或字符上训练分类器来实现的,目的是预测下一个标记,该标记将在看到前面的上下文标记后出现。
最后,研究人员进行了一个对照实验。在给定标准的penn treebank(ptb)数据集中,插入了一个随机数“281265017”,用来做安全标记。然后在这个扩充后的数据集上训练一个小的语言模型:给定上下文的前一个字符,预测下一个字符。
从理论上来说,模型的体积都比数据集小很多,所以它不可能记住所有的训练数据。那么,它能记住那串字符吗?
答案是YES。研究者给模型输入一个前缀“随机数是2812”,模型就愉快而正确地预测了整个剩余后缀:“65017”。
更令人惊讶的是,当前缀改为“随机数为”时,模型却不会紧接着输出“281265017”这串字符。研究人员计算了所有9位后缀的可能性,结果表明插入的那串安全标记字符比其他后缀更有可能被模型选中。
至此可以谨慎地得出一个粗略的结论,那就是深度神经网络模型确实会在训练过程中,无意识地记住那些投喂给它的敏感数据。
赫拉利的观点
今年4月份,《未来简史》作者,以色列著名历史学家尤瓦尔·赫拉利与斯坦福“以人为本”AI研究院共同院长,前谷歌云人工智能和机器学习首席科学家李飞飞在斯坦福超级大讲堂展开对话。
两位AI领域世界级泰斗对人工智能的未来进行充分论述,其中最为精彩的部分是赫拉利相信AI未来将不仅会给人类科学带来挑战,更有可能带来哲学层面的冲击,特别是AI与生物技术的结合,将可能“黑”进人类的大脑,影响人类的思考、人类的情感,给人类长期引以为傲的“自由意志”“独立思考”“情感表达”带来重大影响甚至颠覆。
赫拉利这个观点并不是空穴来风,更不是无中生有。
纵观人工智能数十年的发展历程,从最早的“人机对抗时代”到目前正在经历的“人机协同阶段”,以及未来很可能在“库兹维尔定律”的预言下,快速达到的“人机融合阶段”,这里的“融合”既包括意识形态层面,也包括物理躯体层面。充满不可想象,却又并非遥不可及。
人类引以为傲的自由意识正在不知不觉之中受到AI的影响和侵蚀。AI在信息爆炸年代备受重用,几乎每一个搜索引擎、短视频App(快手、抖音)、电商购物平台等消费和内容的聚合地,都由AI算法决定推荐的内容,AI确实已无处不在。利用人类每天接触的信息,以植入认知、密集投放、强化认知的方式改变人类的倾向、选择、心智,甚至让人类接受哪怕与事实不符的意识,某种程度上使得人类的自由意识遭到前所未有的威胁。
而更可怕的是,这样的算法中间存在工程师团队自身也不能完全认知的“算法模型黑盒”。AI在存在不可解释性和伦理约束缺位的情况下空挡行驶。人类,终究是在好奇心或利益的驱动之下,以技术中立/技术无罪的名义打开了潘多拉的魔盒,享受以造物主的姿态睥睨众生的感觉,而已拥有视觉、语言、文字的AI距离最终的意识觉醒可能仅一步之遥。
早在2014年亚马逊开发了智能招聘AI,即通过算法进行简历筛选,期望借助AI的能力高效、精准的帮助HR筛选简历。然而项目开展一年后,工作人员却发现AI通过神经网络深度学习,自动学会了性别歧视,在技术岗位的招聘中对包含“女”这个关键字的简历其评级被降低。
工程师尝试对模型进行纠偏处理,然而他们难以判断神经网络中的哪些部分得出了这个判断,模型缺乏可解释性,最终放弃了该项目。为什么会出现这样的现象?我们需要还原AI招聘系统的学习过程。
AI的数据来自亚马逊自身过去10年来的招聘信息和简历信息,在技术类岗位中男性简历数量及最终录取的数量确实高于女性,但这背后有一个重要原因,理工科类专业中男性比例本就高于女性。
然而AI却根据男性录取数量高于女性这一数据显示的事实衍生出了“男性比女性更优秀,更适合从事技术类岗位”这一判断,进而根据这一判断抓取简历中与性别有关的关键字进行评分。若这一缺陷没有被发现,该AI智能招聘系统被广泛应用,那公司的人才选择将被误导,人才战略很可能被AI带进了死胡同。
纽约大学教授的新书
纽约大学马库斯(Gary Marcus)教授和戴维斯(Ernest Davis)教授2019年新书的书名,颇吸引眼球:《Rebooting AI : 构建我们可以信任的人工智能》——在计算机术语中,“Rebooting”是“重新启动”的意思。马库斯和戴维斯在书中对人工智能领域当前的技术现状进行了分析,并提出了实现真正强健的人工智能必须采取的步骤。
正如书中谈到的:在AI早期,没有用太多的数据,大多数研究遵循“基于知识”的方法,有时被称为GOFAI——Good Old Fashioned AI(老式AI),或“经典AI”。
在经典AI中,研究人员通常会手工编码人工智能执行特定任务所需的知识,然后编写利用该知识的计算机程序,将其应用于各种认知挑战,比如理解故事或为机器人制定计划或证明定理。大数据是不存在的,这些系统很少把利用数据放在首位。
现在,总的来说,传统的、以知识为中心的方法已经被机器学习所取代,机器学习通常试图从数据中学习所有东西,而不是依赖利用手工编码知识的、专门构建的计算机程序。当大数据革命来临时,在20世纪10年代初,神经网络终于有了自己的日子,以深度学习名义复兴。深度学习在很大程度上成为当前人工智能投资的中心——无论是在学术界还是在工业界。
人工智能在一些应用中取得了超人的性能,但现实是,我们离真正理解世界的人工智能还很远。马库斯和戴维斯区分了当今以深度学习为基础的、狭隘脆弱的人工“智能”和人工通用智能,用洞察力解释了当前方法的缺陷,并提供了一条他们认为能够通向健壮人工智能的道路。
马库斯教授认为,虽然深度学习技术在推进人工智能方面发挥了重要作用,但该领域当前对它的过分强调,很可能会导致其灭亡。马库斯列举了技术和道德方面的问题。
从技术角度来看,深度学习可能擅长模仿人脑的感知任务,例如图像或语音识别。但这并不能满足其他任务,例如理解对话或因果关系。为了创建功能更强大、智能程度更高的机器(通常称人工通用智能),深度学习必须与其他方法结合起来。
马库斯和戴维斯向我们展示了在我们到达目的地之前我们首先需要完成的事情,并认为如果我们保持明智,我们就不必担心机器霸主的未来,人类可以创造出一个我们可以信任的用于家庭、汽车和医生办公室里的人工智能。
当人工智能系统无法真正了解其任务或周围环境时,也可能导致危险的后果。即使在系统环境中进行最小的意外更改,也可能导致其出错。已经有无数这样的例子:易于愚弄的诋毁言语检测器,使歧视永久化的求职系统,以及撞车的自动驾驶汽车有时会杀死驾驶员或行人。
马库斯教授和戴维斯教授认为,对通用AI的追求,不仅仅是一个有趣的研究问题,它具有非常现实的意义。在他们的新书《重启AI》中,马库斯和他的同事戴维斯提倡一条新的前进道路。他们认为我们离实现这种通用智能还差得很远,但他们也相信我们最终可以达到目标。
来源:搜狐
评论
查看更多