如果我们不能就这意味着什么达成一致,我们就无法用灵魂来编程一个有意识的机器人。
编写终结者 是为了吓唬我们; 编写WALL-E是为了让我们哭泣。机器人不能做我们在电影中看到的可怕或令人心碎的事情,但问题依然存在: 如果他们可以做什么?
当然,我们今天拥有的技术并不是那么复杂到足以完成其中任何一项。但是人们一直在问。这些讨论的核心是一个问题:机器能够变得有意识吗?他们甚至可以发展 - 或者被编程包含 - 一个灵魂?至少,算法是否包含类似 灵魂的东西 ?
这些问题的答案完全取决于您如何定义这些问题。到目前为止,自人工智能首次成为学术追求以来,我们在70年代尚未找到令人满意的定义。
以最近在BBC上发表的一篇文章为例,该文章试图用灵魂来解决人工智能的问题。作者定义了如何让一个不朽的灵魂以一种几乎立即远离神学领域的方式引导对话的意义。当然,这很好,因为天空中一位穿着长袍的老人似乎不太可能向Cortana呼吸生命。但它没有回答核心问题 - 人工智能不仅仅是一种无意识的工具吗?
这BBC文章列出的条款 - 即人工智能系统,它的作用就好像它有灵魂将被旁观者来决定。对于我们中间的宗教和精神,一个足够先进的算法似乎可以呈现一个灵魂。那些人可能会这样对待它,因为他们会查看人工智能系统的智力,情感表达,行为,甚至可能是对神的信仰,作为内部某些可被定义为灵魂的东西的标志。
因此,包含某种人工智能的机器可以同时被视为一个实体或研究工具,具体取决于您的要求。与许多事情一样,关于什么会使机器意识到的争论大部分归结为我们自己投射到算法上的内容。
“我对编程计算机的兴趣不如培养小原子实体,” Brigham Young大学的计算机科学家Nancy Fulda对未来主义说。“这是模式的发现,独特行为的出现,首先吸引我进入计算机科学。这就是我还在这里的原因。“
富尔达已经训练人工智能算法来理解语境语言,并且正在努力建立一种机器人心理理论,这是人类(和某些动物)心理学中的一个原则,它让我们用自己的想法和意图认识他人。但是,你知道,对于机器人。
“至于计算机是否能拥有神圣创造的灵魂:我不敢推测,”富尔达补充道。
有两个主要问题需要解决。第一个是语义之一:很难定义它有意识或有意识的真正意义,或者具有灵魂或灵魂功能的意义,正如BBC的文章所描述的那样。
第二个问题是技术进步。与创造人工感知所需的技术相比 - 无论它看起来像什么样,或者我们可能选择定义它 - 甚至我们最先进的工程师仍然挤在洞穴中,将棍子揉在一起制造火并煮一些猛烈的猛犸象牛排。
在去年的一个小组讨论中,生物学家和工程师Christof Koch与认知科学家David Chalmers 就意识到的意义进行了对比。谈话在关于机器和僵尸的思辨性思想实验之间反弹(定义为那些与人无法区别但缺乏内心思维的人)。它经常偏离可以用科学证据确凿证明的事物。查尔莫斯认为,一台比我们今天更先进的机器可以变得有意识,但科赫不同意,基于神经科学和人工智能技术的现状。
神经科学文献认为意识是由我们的大脑构建的叙事,它结合了我们的感官,我们如何感知世界,以及我们的行为。但即使在这个定义中,神经科学家也很难确定我们为什么有意识以及如何最好地根据神经活动来定义它。而对于宗教来说,这种意识是否与拥有灵魂所赋予的意识相同?这甚至都不涉及技术主题。
帕尔杜比采大学的哲学家和伦理学家翁德热·贝兰告诉未来主义说:“人们经常将灵魂与思想混淆,或者更具体地说,是产生复杂行为模式的能力。”
“AI人经常将灵魂与心灵混淆”
“灵魂的概念在我们的文化中扮演的角色与我们说某人的灵魂是高尚或堕落的背景交织在一起,”Beran补充道 - 也就是说,它带来了价值判断。“[我]我认为所需要的不是人工智能科学或工程学的突破,而是一般的概念转变。人们使用他们的语言相互联系的敏感性和想象力的转变。“
Beran举了人工智能产生的艺术品的例子。通常,这些作品都是为了好玩而呈现的。但是,当我们称某种算法创造“艺术”的东西时,我们常常不会考虑算法是仅仅生成了某种形式的图像或旋律,还是创造了一些有意义的东西 - 不仅是对观众,而且对自己。当然,人类创造的艺术也常常无法达到第二组。Beran补充说:“目前尚不清楚什么对人工智能具有重要意义。”
那么当一台机器能够内部思考而不是盲目地搅动输入和输出时,机器能够获得感知吗?或者在我们作为一个社会认为机器是否有意识之前,它真的需要内部的东西吗?同样,我们选择接近问题的方式以及我们到达的具体定义使答案变得混乱。
“我相信灵魂不是一种物质,”捷克科学院的哲学家弗拉基米尔·哈夫里克(VladimirHavlík)试图从进化的角度来定义人工智能,他告诉未来主义。“我们可以说它就像一个连贯的身份,在时间的流逝和人的代表中永久地构成,”他补充说。
哈维利克建议,不要担心灵魂的神学方面,我们可以将灵魂定义为一种经得起时间考验的内在品格。从这个意义上说,他认为没有理由为什么机器或人工智能系统无法开发角色 - 它只取决于算法本身。在Havlík看来,角色来自意识,因此开发这样一个角色的AI系统需要基于足够先进的技术,他们可以制作并以一种比较过去结果与未来预期的方式反映决策,就像人类如何了解世界。
但是,我们是否可以建立一个灵魂机器或有意识的机器的问题只对那些认为这些区别很重要的人来说很重要。人工智能的核心是工具。甚至更复杂的算法可以绕过线并呈现为有意识的实体,是有意识的生物的再创造,而不是新的思维种类,自我意识的生物。
“我对人工智能的态度基本上是务实的,” 联邦大学人工智能研究员Peter Vamplew告诉未来主义。“对我而言,人工智能系统是否具有真正的智能,或真实的情感和同理心并不重要。重要的是它的行为方式使其对人类社会有益。“
“对我而言,人工智能系统是否具有真正的智能并不重要。..。..重要的是它的行为方式使其对人类社会有益。”
对于Vamplew来说,机器是否有灵魂的问题只有在你将灵魂视为一个概念时才有意义。他没有,所以事实并非如此。他觉得机器有一天可能会重新产生令人信服的情绪反应,并表现得好像是人类,但没有理由将神学引入混合体。
并且他不是那种在机器中感觉真正意识不可能的人。“我是非常关键的人工意识的想法,” 贝尔纳哥本哈根,哲学家和人工智能研究员对未来主义。“我认为这是无稽之谈。另一方面,人工智能是未来。“
卡斯特鲁普最近为科学美国人撰写了一篇文章,其中他阐述了他的观点,即意识是自然宇宙的一个基本方面,人们利用分离的意识碎片成为独特的个体。他澄清说,他相信即使是一般的人工智能 - 我们在科幻小说中看到的那种包罗万象的人工智能的名称 - 可能有一天会出现,但即使是这样的人工智能系统也永远不会有私人的,有意识的内心思想就像人类一样。
“不幸的是,索菲亚充其量是荒谬的。而且,更重要的是,我们仍然与她有关,“Beran说,他指的是Hanson Robotics的部分智能机器人。
更令人遗憾的是,人们越来越怀疑我们开发先进人工智能的方法很快就会陷入困境。上周发表在“纽约时报”上的一篇文章引用了多位工程师,他们越来越怀疑我们的机器学习,甚至深度学习技术将会像近年来一样继续增长。
我讨厌成为泥巴中的一根棍子。我真的这样做。但是,即使我们解决关于意识,有意识,有灵魂意味着什么的语义争论,我们也可能永远缺乏将算法带到这一点的技术。
但是,当人工智能首次启动时,没有人能够预测它今天可以做的事情。当然,人们想象机器人帮助者是Jetsons或者Epcot的先进交通工具,但是他们并不知道会让我们到那里的切实步骤。而今天,我们不知道将我们带到情感智能,敏感,深思熟虑和真实内省的机器的切实步骤。
绝不这是否使不可能任务-我们只是不知道怎么去还。事实上,我们还没有解决关于在哪里实际设置终点线的争论,这使得它变得更加困难。
“我们还有很长的路要走,”富尔达说。她建议答案不是拼凑算法,因为我们经常用人工智能解决复杂问题。
“你无法一次解决一个人类问题,”富尔达说。“这是一种格式塔体验。”例如,她认为,如果不理解感知和运动,我们就无法理解认知。如果不知道如何模仿移情和社会意识,我们就无法准确地模拟语音。富尔达说,试图将这些碎片一次放在一台机器中,就像通过将适量的油漆倒入罐中来重现蒙娜丽莎。
无论杰作是否在那里等待绘画,还有待确定。但如果是这样的话,像富尔达这样的研究人员正在争先恐后地试图刷中风。只要我们继续寻求这些问题的答案,技术就会向前迈进。但是,当我们编写新的代码,使机器明天做我们无法想象的事情时,我们仍然需要理清我们希望它所有的领导地位。
我们是达芬奇吗,画一个自我陶醉的女人,几个世纪以来会被钦佩,还是我们会成为天王星,创造出推翻我们的神?现在,人工智能将完全按照我们告诉AI做的,无论好坏。但是,如果我们转向算法开始,至少,作为有感觉的,我们必须弄清楚这意味着什么。
评论
查看更多