人工智能存在信任问题。我们依靠AI越来越多,但它还没有赢得我们的信任。
例如,以Autopilot模式驾驶的特斯拉汽车在撞击停止车辆方面有着令人不安的历史。亚马逊的面部识别系统在很多时候都有效,但当被要求将所有535名国会议员的面孔与2.5万张公开逮捕照片进行比较时,它发现了28个错误匹配。一项旨在审查亚马逊求职者的计算机程序被发现系统地歧视妇女。每个月,都会有新的AI弱点被发现。
现在的问题不在于今天的AI是否需要做得更好,而是今天的AI需要尝试做一些完全不同的事情。
特别是,我们需要停止构建那些只是用来更好检测数据集统计模式(通常被称为深度学习的方法)的计算机系统通常使用称为深度学习的方法,开始构建能够掌握时间、空间和因果关系三大基本要素的计算机系统。
现今的AI系统对这些概念知之甚少。以时间要素为例,我们最近在谷歌上搜索了“乔治·华盛顿有没有电脑?”,这是一个答案需要在时间框架内将两个基本事实(华盛顿生活时期、计算机发明时期)联系起来的问题。谷歌的前10个搜索结果都没有给出正确答案。搜索结果甚至没有真正解决这个问题。排名最高的链接是《卫报》关于玛莎·华盛顿电脑肖像的新闻报道。
而谷歌的Talk to Books也没能做到更好,这是一个旨在通过从庞大的文本数据库提供相关段落来回答问题的AI项目。它提供了20个段落,其中包含大量事实,其中一些涉及乔治·华盛顿,另一些涉及计算机的发明,但两者之间没有任何有意义的联系。
而涉及空间和因果关系的概念时,AI的情况更糟。即使是一个年幼的孩子,第一次遇到奶酪刨丝器,斗可以弄清楚为什么它有锋利边缘的孔,哪些部分可以让奶酪掉落,哪些部分是你可以用手指抓住的等等。但现存的AI系统没有一个可以正确理解对象的形状如何与其功能相关。机器可以识别出什么是物体,但不能识别物体的物理特征如何与其潜在的因果效应相对应。
对于某些AI任务,这种主导数据相关的方法可以完美胜任。你可以轻松地训练深度学习机器,比如识别暹罗猫的照片和Derek Jeter的照片,并区分这两者。这就是为什么这样的程序适用于自动照片标记。但是他们没有实现概念深度。例如,如果有很多不同的暹罗猫,但只有一个Derek Jeter,因此一张显示两只暹罗猫的照片并不显眼,而一张照片显示两个Derek Jeters被篡改了。
在很大程度上,这种理解的失败是像管家Rosie这样的通用机器人仍然是一种幻想的原因。如果Rosie无法理解世界如何运作的基础知识,我们就不能信任她。
没有时间、空间和因果关系的概念,理解许多常识是不可能的。例如,我们都知道任何特定动物的生命始于它的诞生并以它的死亡结束;它在生命中的每一刻都占据着空间中某个特定的区域;那两只动物通常不能同时在同一个空间,两只动物可以在不同的时间在同一个空间等等。
我们不必明确地被教授这种知识。这是一套背景假设,即概念框架,使我们对世界的所有其他思考成为可能。
然而很多AI从业人员很少去在他们的机器中构建这样的背景假设。我们并不是说这样做很容易,相反,这是一个重大的理论和实践挑战。但如果没有它,我们就不会获得复杂的计算机智能。
如果我们建造具有丰富概念理解的机器,其他一些担忧将会消失。例如,哲学家尼Nick Bostrom曾想象过一个强大的AI机器,被指示制作回形针,但他不知道何时停止,并最终将整个世界——包括人类——变成纸夹。
在我们看来,这种反乌托邦的猜测在很大程度上源于对今天无意识AI系统的思考。如果你只能计算统计相关性,则无法概念化损害。但知道时间、空间和因果关系的AI系统是可以编程以遵循更一般指示的事物,例如“机器人不会伤害人类,或通过不作为,允许人类受到伤害”(Isaac Asimov三大机器人法则的第一则)。
我们面临着一个选择。我们可以坚持今天对AI的方法,并且极大地限制机器的作用。或者,我们可以将自己的方法转移到AI系统上,希望开发出对世界有足够概念性理解的机器,让我们不必担心它们的运行。毕竟,任何其他方法都太冒险了。
-
计算机系统
+关注
关注
0文章
282浏览量
24112 -
人工智能
+关注
关注
1791文章
47274浏览量
238459 -
面部识别
+关注
关注
1文章
375浏览量
26637
发布评论请先 登录
相关推荐
评论