人机竞争的理论基础及人工智能与人类竞争问题分析
人类主宰地球并演化发展到今天,除了人
与人之间的竞争,已经没有任何对手能与人竞
争了,但是,还是有一种对手会让人从骨子里
感到畏惧和忧虑,那就是人类不甘寂寞而创造
智能是人们认识和改造世界的综合能力,
人工智能则是人创造的类似于自己智能的智
能,表现为两种。一是弱人工智能,只要机
器、软件表现得像人一样就可以算作有智能,
图灵试验是衡量标准。另一种是强人工智能,
其特点是完全与人一样,会思考、能学习,是
具有人类智慧的机器,能够检测的标准是约翰·
塞缪尔设计的“中文屋思想试验”。
人机竞争的理论基础
人工智能无所不在地潜藏、萌发、产生和
应用于人们生活的各个方面和各个角落,凡有
人类足迹和活动的地方,都可能出现人工智
能,除了替代人们工作和服务于人之外,人工
智能还必然会与人产生激烈的竞争,随后形成
事实上的出乎于人的意志之外的结果——人工
智能对人类造成威胁,并可能最终战胜人。
这一点,以霍金为代表的科学家已经频频
提出。人工智能对人造成潜在的威胁可以体现
在各个方面,包括自主型杀人武器的失控和对
人类大开杀戒、对经济的破坏,甚至人工智能
可以发展出与人类完全冲突的属于自我的意
志。人工智能的崛起可能是人类遇到的最好的
事情,也可能是最坏的事情。如果是后者,则
人工智能的发明可能是人类历史上最大的灾
难。如果不加以恰当管理,会思考的机器可能
终结人类文明。
这种假设的理论和事实依据在于,人工智
能有强大的快速复制的能力。复制原本是生物
把遗传信息传递下去的一种机制,通过DNA到
RNA的转录,再把DNA的信息精确地传递到下
一代。但是,这只是基因的复制,而非实际能
力的复制。人的所有能力只是潜藏在基因中,
从基因到能力的再现或实现还需要经历如同
人工智能与人类的竞争
■ 李芸芸
4
ChaoXing
2017.2B 百科知识
前 沿 QIANYAN QIANYAN 前 沿
DNA到RNA转录一样的或更为复杂的机制,也
就是后天的实践、练习、开发、扩展和创新。
一名优秀运动员的后代,如乔丹的儿子不会因
为继承了乔丹的基因就会打篮球,甚至青出于
蓝而胜于蓝,而是需要后天的训练和努力才能
激活基因中的潜能。也可以说,这也是人类智
慧或智能的短板。
但是,人工智能不同于人类智慧,它是一
种机器智能,最大的特点是可以迅速复制一种
技术或技能。一旦某一个人工智能机器通过深
度学习而拥有97%以上的人脸识别正确率,在顷
刻之间,世界所有同类的人工智能机器都可以
具备这样的正确识别率。这种无成本复制和持
续向前的演化能力是人工智能相对于人类智能
的最大优势,因此有可能产生“冰,水为之而
寒于水”的结果。
更让人担心的是,人类基因中一种与生物
演化相关的特点,将可能让人类难以承受智能
机器人 (人工智能) 的挑战。人性中包含有原
欲和原恶两个部分。人类的原欲中包括食欲、
性欲和知欲。这三种欲望是人类世世代代、生
生不息的原动力。没有食,人类会绝种;没有
性,人类也会绝种;没有知,人类在一个物竞
天择的演化环境中亦会绝种。所以,人类的原
欲与人类共生、共存、共进、共殃。
但是,没有节制的原欲恰恰又是人类原恶
的根源,这种根源又来自基因所固有的特点,
即自我复制和自私,因为基因的自私是其存在
和延续的手段。所以,当人工智能拥有了人类
的特点并超过人类基因的复制能力,并且有了
自我意识时,对人类的挑战就会超过历史上人
与人的战争所产生的最为残酷和悲惨的结局。
杀人机器人的标本解析
智能“杀人机器人”将是人工智能挑战或
毁灭人类的最直接的形式和体现。尽管阿西莫
夫提出了机器人三定律,后来又补充为四定
律,即,第一定律:机器人不得伤害人类,或
坐视人类受到伤害;第二定律:除非违背第一
定律,否则机器人必须服从人类的命令;第三
定律:在不违背第一及第二定律下,机器人必
须保护自己;第零定律:机器人不得伤害人类
族群,或因不作为使人类族群受到伤害,但
是,杀人机器人的出炉或即将出炉意味着机器
人四定律将可能是一张废纸。
迄今为止,杀人机器人还没有问世,但是美
国军方曾表达过这种意愿,而且无人机技术的发
展,以及美国等国四足型、巡逻用机器人的开发
应用,已经使得实质意义上的杀人机器人呼之欲
出,拥有人工智能的杀人机器人的问世是早晚的
事。因为,研发和使用此类机器人有诸多理由,
例如,有助于减少实际战争中人类士兵的牺牲,
是一种具有实际价值的行为。为避免机器人的滥
杀无辜,可以为机器人安装“基于国际法的系统
程序”,如此它们将不会进行非人道的杀伤。
然而,杀人机器人有利于人类社会的观念
面临社会现实和技术等多方面的严峻考验。例
如,在机器人出现机能障碍,或被恐怖分子获
得时,其危险性不可估量;使用杀人机器人可
能意味着国家无需顾及士兵的性命,使得战争
发生的危机显著增大;同时是否将人类的生死
问题委托给机器人也关系到人类重大伦理问题。
不过,最大的问题是,当杀人机器人拥有
了自我意识和自主性时,它将不可能受机器人
定律或国际法的约束而自行其事。其最终的行
为是,当遇到程序设计的原则,或遇到可能危
害自己的安全时,杀人机器人就会自主和主动
杀人。程序设计的一个例子是,当机器人察觉
到对手有武器并且在准备射击时,会自动和率
先击毙对方,而不可能先经过人的同意,而且
也不会分辨对方拿的是玩具枪还是其他类似枪
的工具,如大棒,抑或是对方在开玩笑。
自我意识在以前被视为是智能机器人不可
能拥有的,但是,人工智能的发展让人觳觫不
安,因为智能机器人可能会慢慢拥有自我意
识,尽管这种自我意识还并非真正意义上的人
的意识。现在,人工智能的意识已经发展到认
非常好我支持^.^
(0) 0%
不好我反对
(0) 0%