这是一篇客座文章。这里所表达的观点只是作者的观点,并不代表电子发烧友的立场。
大多数人把人工智能和机器人视为不可分割的一对,认为它们是一回事。事实上,“人工智能(artificial intelligence)”一词很少在研究实验室使用。特定于某些人工智能和其他智能技术的术语更为相关。每当我(作者,以下简称我)被问到“这个机器人是由人工智能操作的吗?”这个问题时,我都会犹豫是否应该把我们开发的算法称为“人工智能”。
20世纪50年代,John McCarthy和Marvin Minsky等科学家首次使用人工智能。几十年来,人工智能经常出现在科幻小说或电影中。现在,人工智能被应用于智能手机虚拟助理和自动驾驶车辆算法中。无论是历史上还是今天,人工智能都可能意味着许多不同的东西,这可能会引起混乱。
然而,人们常常有这样的偏见,认为人工智能是人类智能的人工实现形式。而这种先入为主的观念可能来自于我们作为人类的认知偏见。
We judge robots’ or AI’s tasks in comparison to humans
不要将机器人或AI直接与人类相比较
如果你在2017年碰巧关注了这条新闻,那么当DeepMind开发的人工智能AlphaGo击败9段围棋选手Lee Sedol时,你有什么感觉?你可能会感到惊讶或恐惧,认为人工智能已经超越了天才的能力。
尽管如此,赢得一场有着指数级可能动作(如围棋)的游戏只意味着人工智能已经超过了人类智力的一个非常有限的部分。IBM的人工智能Watson也是如此,它在“Jeopardy!”中竞争 —— 这是一个电视智力竞赛节目。
我相信很多人都对我在麻省理工学院仿生机器人实验室(MIT Biomimetic Robotics Laboratory)研制的Mini Cheetah的后仰动作印象深刻。虽然向后跳跃和落地是非常动态的、引人注目的,当然对人类来说也是困难的,但与需要更复杂反馈回路的稳定行走相比,特定运动的算法非常简单。完成对我们来说似乎很容易的机器人任务通常是极其困难和复杂的。出现这种差距是因为我们倾向于根据人类标准来考虑任务的难度。
我们倾向于将人工智能的功能泛化。例如,当我们在街上看到有人在做后空翻时,我们倾向于认为这个人擅长走路和跑步,也有足够的灵活性和运动能力,擅长其他运动。一般来说,很可能对这个人的这种判断不会是错误的。
然而,我们也能将这一判断应用于机器人吗?我们很容易根据对特定机器人运动或功能的观察来概括和确定AI性能,就像我们对人类所做的那样。
通过观看OpenAI(人工智能研究实验室)机器人手解决魔方的视频,我们认为人工智能可以执行所有其他简单的任务 —— 因为它执行了如此复杂的任务。但我们忽略了这样一个事实,即人工智能的神经网络只针对有限类型的任务进行训练。例如,如果情况发生变化,在操作魔方时将它倒置,则算法的工作效果可能不如预期的好。
与人工智能不同,人类可以将个人技能结合起来,并将其应用于多项复杂任务。一旦我们学会了如何解魔方,即使被告知要倒持魔方,我们也能快速地处理魔方。而大多数机器人算法需要新的数据或重新编程才能做到这一点。
能用勺子在面包上涂果酱的人也能用叉子涂果酱 —— 这是显而易见的。我们理解“传播”堵塞的概念,并能很快习惯使用完全不同的工具。此外,虽然自动驾驶车辆需要每种情况的实际数据,但人类驾驶员可以根据预先学习的概念做出理性决策,以应对无数情况。这些例子显示了人类智能的一个特征,与机器人算法形成了鲜明对比,机器人算法无法在数据不足的情况下执行任务。
哺乳动物持续进化了6500多万年。人类花在学习数学、使用语言和玩游戏上的全部时间加起来也不过10000年。换句话说,人类花了大量时间发展与生存直接相关的能力,如行走、跑步和使用双手。
因此,计算机的计算速度比人类快得多并不奇怪,因为计算机最初就是为了这个目的而开发的。同样,计算机不能像人类那样轻易获得自由使用手和脚的各种能力也很自然,因为这些技能是通过1000多万年的进化获得的。
这就是为什么将机器人或人工智能在演示中的表现与动物或人类的能力进行比较是不合理的。在麻省理工学院观看Cheetah机器人穿越田野、跨越障碍的视频时,就认为像动物一样行走和奔跑的机器人技术已经成熟可就太轻率了。
许多机器人演示仍然依赖于在有界情况下为特殊任务设置的算法。事实上,研究人员倾向于选择看似困难的演示,因为这会给人留下深刻印象。然而,这种难度是从人的角度考虑的,这可能与实际的算法性能无关。
在任何逻辑思维之前,人类很容易受到瞬间和反思性感知的影响。当研究对象非常复杂,很难进行逻辑分析时,这种认知偏见就会加强,例如,一个使用机器学习的机器人。
那么我们人类的认知偏见从何而来?我相信这是由于我们的心理倾向,下意识地将我们所看到的事物进行了拟人化。人类已经进化为社会性动物,在这个过程中可能会发展出相互理解和同情的能力。我们将主体拟人化的倾向也来自于同样的进化过程。
人们在提到编程算法时倾向于使用“教学机器人(teaching robots)”这一表达。然而,我们习惯于使用拟人化表达。正如18世纪哲学家David Hume所说,“人类有一种普遍的倾向,即把所有的生命都设想得像他们自己。”
当然,我们不仅将受试者的外表拟人化,还将他们的心理状态拟人化。例如,当波士顿动力公司(Boston Dynamics)发布了一段工程师踢机器人的视频时,许多观众的反应是“这太残忍了”,他们“同情机器人”。
一条评论说,“有一天,机器人会对那个工程师进行报复”受到了欢迎。实际上,工程师只是在测试机器人的平衡算法。然而,在理解这种情况的任何思维过程之前,像动物一样的机器人的攻击性踢腿动作和挣扎动作会瞬间传递到我们的大脑,给我们留下深刻的印象。就像这样,这种瞬间的拟人对我们的认知过程有着深刻的影响。
Humans process information qualitatively, and computers, quantitively
人类定性地处理信息,计算机定量地处理信息
环顾四周,我们的日常生活充满了算法,运行这些算法的机器和服务就可以看出这一点。所有算法都以数字为基础。我们使用诸如“目标函数(objective function)”之类的术语,这是一个代表特定目标的数值函数。许多算法的唯一目的是达到该函数的最大值或最小值,而算法的特性因其实现方式而异。
赢得围棋或国际象棋比赛等任务的目标相对容易量化。量化越容易,算法工作得越好。相反,人类往往在没有定量思考的情况下做出决策。
举个“打扫房间”的例子,我们每天的清洁方式都有细微的差别,这取决于情况、房间是谁的以及一个人的感受。我们是否试图在这个过程中最大化某个功能?我们没有这样做。清洁的行为是以“足够清洁”为抽象目标进行的。此外,“足够”的标准很容易改变。这一标准在人与人之间可能会有所不同,特别是在家庭成员或室友之间会引起冲突。
还有许多其他的例子。当你每天洗脸时,你打算用手的动作最大化哪些定量指标?你擦得有多用力?选择穿什么?选择晚餐吃什么?选择先洗哪个盘子?这样的例子不胜枚举。我们习惯于通过整合我们已有的信息来做出足够好的决策。
然而,我们通常不会检查是否每个决策都是优化的。大多数情况下,我们不可能知道,因为我们必须用有限的数据满足许多相互矛盾的指标。当我们和朋友在商店选购食品时,我们无法量化食品标准,并根据这些数值做出决定。
通常,当一个人挑选某样东西时,另一个人会说“好!”或者建议另一种选择。这与说这种蔬菜“是最佳选择”截然不同,这更像是说“这已经足够好了”。
在设计我们期望机器人执行的工作或服务时,人和算法之间的这种操作差异可能会带来麻烦。这是因为当算法基于定量值执行任务时,人类的满意度,即任务的结果,很难被完全量化。
要量化一项任务的目标并不容易,因为该任务必须适应个人偏好或不断变化的环境,如上述房间清洁或洗碗任务。也就是说,为了与人类共存,机器人可能需要进化,而不是优化特定功能,而是实现“足够好”。当然,在现实生活中,后者更难实现,因为在现实生活中,你需要管理如此多的相互冲突的目标和定性约束。
Actually, we do not know what we are doing
事实上,我们并不知道在做什么
在读这篇文章之前,试着回忆一下你最近吃过的一顿饭。你还记得你吃了什么吗?那么,你还记得咀嚼和吞咽食物的过程吗?你知道你的舌头当时到底在干什么吗?我们的舌头为我们做了很多事情。
它帮助我们把食物放进嘴里,在牙齿间分配食物,吞下细嚼过的食物,甚至在需要时把大块食物送回牙齿。我们当然可以做到这一切,即使在和朋友交谈时,也可以用你的舌头来控制发音。
我们有意识的决定在多大程度上促进了我们同时完成如此多复杂任务的舌头运动?看起来好像我们在随心所欲地移动舌头,但事实上,更多的时候,舌头会自动移动,从我们的意识中接受高级命令。这就是为什么我们不能记住吃饭时舌头的详细动作。首先,我们对他们的行动知之甚少。
我们可能认为我们的手是最有意识地控制的器官,但许多手的动作也会自动地、无意识地发生,或者最多是潜意识地发生。对于那些不同意的人,试着把钥匙之类的东西放进口袋,然后拿出来。
在这短短的一瞬间,无数的微操作立即无缝地协调完成了任务。我们通常无法单独感知每一个动作。我们甚至不知道应该把它们分成哪些单位,所以我们把它们统统表达为抽象的词语,如整理、清洗、涂抹、擦拭等。
这些动词都是定性定义的。它们通常是指精细动作和操作的集合,其组成随情况而变化。当然,即使是孩子们也很容易理解和思考这个概念,但从算法开发的角度来看,这些词是无限模糊和抽象的。
还是举一个在面包上涂抹花生酱来做三明治的例子。我们可以展示是如何做到这一点的,并用几句简单的话进行解释。让我们假设一个稍微不同的情况 —— 设有一个外星人使用与我们相同的语言,但对人类文明或文化一无所知(我知道这个假设已经自相矛盾了,但请容忍我。)
我们能在电话里解释一下如何做花生酱三明治吗?我们可能会在解释如何从罐子里舀出花生酱时卡壳。即使是抓取面包片也不是那么简单,我们必须用力抓住面包,这样才能涂抹花生酱,但又不能太用力,以免破坏软面包的形状。
换句话说,我们很容易想到如何抓住面包,但要通过语言或文字来表达这一点并不容易,更不用说在函数中了。即使是一个人在学习一项任务,我们能通过电话学习木匠的工作吗?我们能通过电话准确地纠正网球或高尔夫球的姿势吗?很难辨别我们所看到的细节在多大程度上是有意或无意完成的。
我的观点是,并不是我们用手和脚所做的一切都可以用我们的语言直接表达出来。在连续动作之间发生的事情通常会无意识地自动发生,因此我们用一种比实际发生方式简单得多的方式来解释我们的动作。
这就是为什么我们的行为看起来很简单,为什么我们忘记了它们是多么不可思议。表达的局限性常常导致低估实际的复杂性。我们应该认识到这样一个事实,即语言描述的困难会阻碍词汇发展不完善领域的研究进展。
直到最近,人工智能已实际应用于与数据处理相关的信息服务中。今天一些突出的例子包括语音识别和面部识别。现在,我们正在进入一个人工智能的新时代,它可以在我们中间有效地进行物理服务。也就是说,复杂物理任务的自动化时代即将到来。
特别是,我们日益老龄化的社会构成了巨大的挑战。劳动力短缺不再是一个模糊的社会问题。我们迫切需要讨论如何开发增强人类能力的技术,使我们能够专注于更有价值的工作,追求人类特有的生活。
这就是为什么不仅是工程师,而且来自各个领域的社会成员都应该提高他们对人工智能和无意识认知偏见的理解。如上所述,人们很容易误解人工智能,因为它在本质上与人类智能不同。
对人类来说很自然的事情可能是对人工智能和机器人的认知偏见。如果不清楚我们的认知偏见,我们就无法为技术研究、应用和政策设定适当的方向。为了使科学界的发展富有成效,我们需要敏锐地关注我们的认知,并在促进技术的适当发展和应用过程中进行慎重的辩论。
Sangbae Kim是麻省理工学院仿生机器人实验室的领导者。上面这篇文章改编自Kim在6月份为Naver Labs发布的博客。
编辑:jq
-
智能手机
+关注
关注
66文章
18447浏览量
179899 -
机器人
+关注
关注
210文章
28236浏览量
206628 -
人工智能
+关注
关注
1791文章
46902浏览量
237678
原文标题:人工智能与机器人是一回事吗?如何规避认知偏差的雷区?
文章出处:【微信号:XA_GCY,微信公众号:GCY电子工程师训练营】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论