今年年初,一些受人尊敬的科学家发出了一封关于人工智能(AI)危险性的警告。特别是,他们担心我们会创建一个能够自行适应和发展的人工智能,并且会以如此快的速度这样做,以至于超越人类理解或控制的能力。而且,他们警告说,这可能意味着人类的终结。但我认为人工智能的真正危险性比我们更接近未定义且可能遥远的未来。
首先,我对整个人工智能启示情景有着严重的怀疑。我们距离创造任何一种具有人类大脑所体现的复杂性的计算系统还有很长的路要走。此外,我们并不真正了解智能是什么,存在什么是必要的,以及它是如何产生的。仅靠复杂性显然是不够的。我们人类都有大脑,但智力差异很大。我不知道如果我们没有真正的规范可以人为地创建智能。
我们所拥有的是对智能行为的朦胧描述,到目前为止所有我们的人工智能工作集中在模仿这种行为的某些元素上。迄今为止的结果提供了一些令人印象深刻的结果,但仅限于狭窄的应用领域。我们有可以击败大师的国际象棋程序,推动图灵测试界限的互动项目,以及可以击败人类危险品冠军的超级计算机。但是没有任何东西能够做到这一切以及人类可以做的其他成千上万的事情。
甚至我们能够创造出真正聪明的东西,谁能说这样的实体会是恶意的?
我认为人工智能的危险是真实存在的,并且会在不久的将来出现。但它们不会因为机器的智能性而出现。它们会因为机器不够智能而出现,但我们无论如何都要控制它们,这样做就失去了控制自己的能力。
这种切换和技能损失已经是根据纽约客的这篇文章,航空业开始发生。自动驾驶仪足以在没有人为干预的情况下处理绝大多数情况,因此飞行员的注意力会徘徊,当出现自动驾驶仪无法正常处理的情况时,人类飞行员的惊吓反应的可能性就会增加。
然后是GIGO因子(GIGO =垃圾输入,垃圾输出)。如果人工智能系统获得的信息不正确,很可能会做出不正确的决定,并带来潜在的灾难性后果。人类能够从各种来源获取信息,将它们全部集成,将其与经验进行比较,并使用结果来识别错误的信息源。人工智能设备距离能够完成同样的事情还有很长的路要走,但我们预测到2020年全自动汽车的出现。我认为太快会给人工智能控制太多了。
所以,不,我不担心流氓AI消灭人类。我担心人工智能不足以控制它尚未准备好的事情。如果要通过人工智能系统消灭人类,那将不是因为人工智能的恶意。这将是因为AI将完全按照设计执行其功能,这与按预期执行的功能不同。
-
人工智能
+关注
关注
1791文章
46738浏览量
237315 -
PCB打样
+关注
关注
17文章
2968浏览量
21636 -
华强PCB
+关注
关注
8文章
1831浏览量
27708 -
华强pcb线路板打样
+关注
关注
5文章
14629浏览量
42962
发布评论请先 登录
相关推荐
评论