(文章来源:36氪)
对人工智能最新进展的批评者抱怨说,尽管这些进展已经给AI系统中带来了显著进步,但这些系统依然未能展现出“真实”、“正确”或者“真正”的理解。像“真实”、“正确”以及“真正”之类词汇的使用意味着“理解”是二进制的。一个系统要么表现出“真正”的理解,要么就是没有理解。
这种思维方式的困难在于,人类的理解永远都不是完整和完美的。在本文中,我将提出“理解”是能力的系列连续谱。比方说,不妨考虑一下“水”的概念。大多数人都理解水的许多特性:水是湿的,水可以喝,植物需要水,温度很低的话水会结成冰,等等。但不幸的是,很多人不理解,水是导电体,所以,淋浴的时候不应该用风筒。尽管如此,我们不会说这些人对谁缺乏 “真实”、“正确”或“真正”的理解。相反,我们会说他们对水的理解是不完整的。
我们也应该以同样的态度来评估我们的AI系统。现有的系统已经表现出了某些类型的理解。比方说,当我让Siri“打电话给Carol”,然后它能够拨打正确的号码时,你就很难说服我说Siri并不理解我的要求。当我问Google“IBM的深蓝系统击败了谁?”,后者返回一个信息框,给出用大写字母写成的“卡斯帕罗夫”时,它就已经正确地理解了我的问题。当然,这种理解是有限的。如果我接着问它“什么时候?”的时候,它只会给我提供一个“when”的字典定义——而不会把我的问题解释成对话的一部分。
关于“理解”之争可以追溯到亚里斯多德,也许John Searle的“中文房间”思想实验对此阐述得最清楚。我鼓励大家可以去看看《斯坦福哲学百科全书》里面科尔的那篇出色的文章。我的态度是一种功能主义的形式。我们从功能上去表示理解,并且根据大脑或者某AI系统各种内部结构在产生所衡量的功能中存在的因果关系来评估它们所做的贡献。
从软件工程的角度来看,功能主义鼓励我们设计一系列测试去衡量系统的功能。我们可以问一个系统(或一个人),“如果把水冷却到–20度会发生什么?”或者“如果在洗澡的时候用吹风机会发生什么?”然后对回应进行衡量。就回应恰当而言,我们可以说系统理解了,而如果说回答错误的话,我们可以说发现了系统存在不理解的情况。
为了让一套系统能够理解,它必须建立不同概念、状态和动作之间的关联。今天的语言翻译系统可以正确地把英语的“水”跟西班牙语的“agua”关联到一起,但是它们没有在“水”和“电击”之间建立起任何的关联。
对于最新的AI进展,批评大都来自两个方面。第一个是,(研究人员、前者所在的组织,甚至政府以及资助机构)围绕着人工智能的炒作已经达到了极端水平。这种炒作甚至引发了对“超级智能”或“机器人末日”迫在眉睫的恐惧。批评对于抵制胡说八道至关重要。
对深度学习的批评已经把我们带到了新的方向。尤其是,一方面已经证明深度学习系统在各种基准任务上跟人类的表现可以相匹敌,但另一方面又不能将其推广到表面上非常相似的任务上,这已经导致了对机器学习的批评。研究人员正在用新想法予以回应,比方说学习不变性(learning invariants),发现因果模型(discovering causal models)等。这些想法既适用于机器学习的符号主义也适用于联结主义。
我相信我们不应该去争论什么才算是“真正的”理解。相反,我鼓励大家把那个先放到一边,去寻求人工智能的科技进步,把焦点放在未来5、10或者50年内应该努力去实现哪些系统功能上面。我们应该根据可以在AI系统上进行的测试来定义这些功能,来衡量它是否具备这些功能。为此,这些功能必须是可操作的。简而言之,我的观点是要AI开发要以测试为驱动。这需要我们把我们对“理解”和“智能”的模糊概念转化为具体的,可衡量的能力。这本身就是一个非常有用的练习。
与此同时,人工智能的研发正在为我们提供可以为社会带来价值的,功能越来越强大的系统。无论是出于学术诚信还是为了继续获得资助,人工智能的成功要归功于那些研究人员,而存在的问题也需要他们站起来负责,这一点很重要。我们一方面必须压一压那些围绕着AI新进展进行的炒作,另一方面,不管我们的系统是怎么理解或者不理解用户、目标以及所处的更广阔世界的,我们也必须客观地予以衡量。我们不要再把我们的成功视为“假的”,不够“真实”而摒弃,而应该继续以诚实的、富有成效的自我批评去推进AI发展。
(责任编辑:fqj)
-
人工智能
+关注
关注
1791文章
46845浏览量
237535 -
深度学习
+关注
关注
73文章
5492浏览量
120975
发布评论请先 登录
相关推荐
评论