众所周知,计算机很多时候可以给我们的问题一个很好的答案,但我们并不理解它是如何得到这些答案的。Been Kim一直在开发一个“面向人类的翻译器(translator for humans)”,这样我们就可以知道人工智能何时会失效。
Been Kim
如果一个医生告诉你需要做手术,你会想知道为什么,而且你会期望自己可以理解这个解释,即使你从未上过医学院。谷歌大脑(Google Brain)的科学家Kim认为,我们应该对人工智能抱有更高的期望。作为“可解释”机器学习(“interpretable” machine learning)的专家,她希望开发能够向任何人解释自己的人工智能软件。
自从大约十年前人工智能兴起以来,人工智能背后的神经网络技术使用其日益强大的学习和识别数据模式的能力,已经改变了从电子邮件到药物开发的每一件事。但这种能力带来了一个问题:现代深度学习网络的复杂性使之能够成功地学会如何驾驶汽车和发现保险欺诈,但即便是人工智能专家也无法了解它内部工作的机制。如果一个神经网络被训练来识别像肝癌和精神分裂症这样的病人——就像2015年纽约西奈山医院的“深度病人(Deep Patient)”系统一样——我们不知道神经网络关注的是数据的哪些特征。这种“知识”被加诸于许多层的人工神经元上,每层都有成百上千的连接。
随着越来越多的行业试图用人工智能实现自动化或增强他们的决策能力,这种黑箱理论似乎显示出根本性的缺陷。美国国防部高级研究计划局(DARPA)的“XAI”项目(用于“可解释的人工智能”)正在积极研究这个问题,可解释性已经从机器学习研究的边缘转移到了它的中心。Kim说:“人工智能正处于这个关键时刻,人类正试图考察这项技术是否对我们有益。”“如果我们不解决这一可解释性问题,我认为我们就不应该继续使用这项技术。我们可能会放弃它。”
Kim和她在Google Brain的同事最近开发了一个名为“概念激活向量测试(TCAV)”的系统,她将其描述为“面向人类的翻译器”,该系统允许用户询问黑匣子人工智能一个特定的高层次概念在其推理中发挥了多大作用。例如,如果一个机器学习系统已经被训练识别图像中的斑马,那么一个人可以使用TCAV来确定系统在做出决定时对“条纹”概念给予了多少权重。
可解释性是什么意思,它为什么如此重要,Kim一一给出了解答。
“可解释性”这个词到底是什么意思?
可解释性有两个分支。一种是科学的可解释性:如果你把神经网络作为研究对象,那么你就可以进行科学实验来真正理解关于模型的细节、它的反应以及诸如此类的事情。
可解释性还有第二个分支,我主要关注的是人工智能的可解释性。你不必了解模型的每一个细节。但是,只要你能够理解并足够安全地使用该工具就可以了,这就是我们的目标。
你为什么能对一个你不完全理解其工作原理的系统有信心呢?
我给你打个比方。假设我后院有一棵树,我想砍掉它。我可能会用电锯来做这项工作。现在,我不完全理解电锯是如何工作的。但手册上说,“这些是你需要小心的事情,以免割到你的手指。”所以,根据这本手册,我宁愿用电锯也不愿用手锯,手锯的原理容易理解,但会让我花五个小时来砍树。
你知道“切割”是什么,即使你不完全知道完成这个动作的机制是什么。
对。第二个可解释性的第二个分支是:我们能充分理解一个工具,以便安全地使用它吗?我们可以通过确认工具中反映出的人类已有的知识来形成这种理解。
“反映人类知识”如何使人工智能更容易理解?
这有另一个例子。如果医生使用机器学习模型来进行癌症诊断,医生会想知道,该模型有没有利用数据中我们不想涉及的随机性。确保这一点的一种方法是确认机器学习模型正在做医生会做的事情。换句话说,证明医生自己的诊断知识已经反映在模型中。
因此,如果医生在判断一个细胞是否变成了癌细胞,他们可能会在标本中寻找一种叫做“融合腺(fused glands)”的东西。他们还可以考虑患者的年龄,以及患者过去是否接受过化疗。这些都是医生诊断癌症时关心的因素。如果我们能证明机器学习模型也注意到了这些因素,那么模型就更容易理解了,因为它反映了医生作为人类会具备的知识。
这就是TCAV所做的吗?它揭示了机器学习模型使用哪些高级概念来做出决策?
对。在此之前,可解释性方法只解释了在输入数据的特征上,神经网络做了什么工作。也就是说,如果您有图像,每个像素都是一个输入参数。事实上,Yann Lecun(一位早期的深度学习先驱,目前是Facebook的人工智能研究主管)说,你可以查看神经网络中的每个节点,并查看每个输入的数值。这对电脑来说没问题,但人类不会这样做。我不会告诉你,“哦,看看100到200像素,RGB值是0.2和0.3。”我只会说,“有一张狗的照片,它的毛发真的很蓬松。”这就是人类交流的方式——利用概念。
TCAV如何把输入的数据转化成概念?
让我们回到使用机器学习模型的医生的那个例子,这个机器学习模型已经被训练为将细胞样本的图像按照可能存在的癌症分类。作为医生,你可能想知道“融合腺体”的概念对预测癌症有多重要。首先,你收集一些图像,比如20个,其中有一些含有融合腺体的细胞。现在你将这些标记的示例插入模型中。
那么TCAV内部所做的就是所谓的“敏感性测试”,当我们将这些包含融合腺体的图片放入模型,癌症阳性预测的概率会增加多少?你可以将其输出为一个介于0和1之间的数字,这是你的TCAV得分。如果概率增加,证明这是模型的一个重要概念。如果没有,这就不是一个重要的概念。
“概念”是一个模糊的术语。有没有TCAV不能处理的概念?
如果你不能使用数据表达你的概念,那么它将无法工作。如果你的机器学习模型是在图像上训练的,那么这个概念必须是可视化的。比如说,我想用视觉表达“爱”的概念,这真的很难。
TCAV本质上是为了建立对人工智能的信任,而不是真正的理解它吗?
不是,我们从认知科学和心理学的研究中知道,人类很容易上当受骗。这意味着欺骗一个人去相信某件事其实很容易。机器学习可解释性的目标与此相反。它告诉你一个系统是否安全,重要的是找到真相而不是建立信任。可解释性的重点是揭示人工智能推理中的潜在缺陷。
它怎么能暴露自己的缺陷?
你可以使用TCAV向经过训练的模型测试相关的概念。回到医生使用人工智能进行癌症预测的例子,医生们可能会突然想,“这台机器似乎倾向于对带有蓝色阴影的图像给出患有癌症的预测。我们认为不应该考虑这一因素。”因此,如果带有“蓝色”的TCAV分数很高,这就成为这个机器学习模型的一个缺陷。
TCAV是针对无法解释的机器学习模型设计的。为什么不让系统从一开始就可以解释呢?
可解释性研究的一个分支,侧重于建立反映人类推理方式的固有可解释模型。但我的看法是:现在你在任何地方都有人工智能模型,这些模型已经被构建,并且已经得到重要应用,而从一开始我们就没有考虑过可解释性。这就是事实。谷歌就有很多这样的情况!你可以说,“可解释性是非常有用的,让我为你建立另一个模型来取代你已有的模型。”那好吧,祝你好运。
那你怎么办?
我们仍然需要判断这项技术是否适合我们。这就是我为什么研究“后训练(Posttraining)”的可解释性方法。如果你有一个别人给你的模型,而你不能改变它,你如何去为它的行为生成解释,以便你可以安全地使用它?这就是TCAV工作的意义所在。
你相信如果没有可解释性,人类可能会放弃人工智能技术吗?考虑到它的强大功能,你真的认为这是现实的可能性吗?
是的。专家系统(智能计算机程序系统)就是这样。在20世纪80年代,我们确定他们比人工操作人员执行某些任务更便宜。但现在谁在使用专家系统呢?没有人。之后我们进入了人工智能的冬天。
因为人工智能铺天盖地的宣传和资金的大量投入,现在看起来不太可能放弃人工智能。但从长远来看,我认为人类可能发现——也许是出于恐惧,也许是因为缺乏证据——这项技术不适合我们。这也是可能的。
-
计算机
+关注
关注
19文章
7436浏览量
87768 -
人工智能
+关注
关注
1791文章
46915浏览量
237726 -
模糊
+关注
关注
0文章
63浏览量
14359
原文标题:我们能不能相信人工智能?
文章出处:【微信号:bdtdsj,微信公众号:中科院半导体所】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论