0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

我们究竟能不能相信人工智能?

电子工程师 来源:工程师李察 2019-05-11 10:28 次阅读

众所周知,计算机很多时候可以给我们的问题一个很好的答案,但我们并不理解它是如何得到这些答案的。Been Kim一直在开发一个“面向人类的翻译器(translator for humans)”,这样我们就可以知道人工智能何时会失效。

Been Kim

如果一个医生告诉你需要做手术,你会想知道为什么,而且你会期望自己可以理解这个解释,即使你从未上过医学院。谷歌大脑(Google Brain)的科学家Kim认为,我们应该对人工智能抱有更高的期望。作为“可解释”机器学习(“interpretable” machine learning)的专家,她希望开发能够向任何人解释自己的人工智能软件。

自从大约十年前人工智能兴起以来,人工智能背后的神经网络技术使用其日益强大的学习和识别数据模式的能力,已经改变了从电子邮件到药物开发的每一件事。但这种能力带来了一个问题:现代深度学习网络的复杂性使之能够成功地学会如何驾驶汽车和发现保险欺诈,但即便是人工智能专家也无法了解它内部工作的机制。如果一个神经网络被训练来识别像肝癌和精神分裂症这样的病人——就像2015年纽约西奈山医院的“深度病人(Deep Patient)”系统一样——我们不知道神经网络关注的是数据的哪些特征。这种“知识”被加诸于许多层的人工神经元上,每层都有成百上千的连接。

随着越来越多的行业试图用人工智能实现自动化或增强他们的决策能力,这种黑箱理论似乎显示出根本性的缺陷。美国国防部高级研究计划局(DARPA)的“XAI”项目(用于“可解释的人工智能”)正在积极研究这个问题,可解释性已经从机器学习研究的边缘转移到了它的中心。Kim说:“人工智能正处于这个关键时刻,人类正试图考察这项技术是否对我们有益。”“如果我们不解决这一可解释性问题,我认为我们就不应该继续使用这项技术。我们可能会放弃它。”

Kim和她在Google Brain的同事最近开发了一个名为“概念激活向量测试(TCAV)”的系统,她将其描述为“面向人类的翻译器”,该系统允许用户询问黑匣子人工智能一个特定的高层次概念在其推理中发挥了多大作用。例如,如果一个机器学习系统已经被训练识别图像中的斑马,那么一个人可以使用TCAV来确定系统在做出决定时对“条纹”概念给予了多少权重。

可解释性是什么意思,它为什么如此重要,Kim一一给出了解答。

“可解释性”这个词到底是什么意思?

可解释性有两个分支。一种是科学的可解释性:如果你把神经网络作为研究对象,那么你就可以进行科学实验来真正理解关于模型的细节、它的反应以及诸如此类的事情。

可解释性还有第二个分支,我主要关注的是人工智能的可解释性。你不必了解模型的每一个细节。但是,只要你能够理解并足够安全地使用该工具就可以了,这就是我们的目标。

你为什么能对一个你不完全理解其工作原理的系统有信心呢?

我给你打个比方。假设我后院有一棵树,我想砍掉它。我可能会用电锯来做这项工作。现在,我不完全理解电锯是如何工作的。但手册上说,“这些是你需要小心的事情,以免割到你的手指。”所以,根据这本手册,我宁愿用电锯也不愿用手锯,手锯的原理容易理解,但会让我花五个小时来砍树。

你知道“切割”是什么,即使你不完全知道完成这个动作的机制是什么。

对。第二个可解释性的第二个分支是:我们能充分理解一个工具,以便安全地使用它吗?我们可以通过确认工具中反映出的人类已有的知识来形成这种理解。

“反映人类知识”如何使人工智能更容易理解?

这有另一个例子。如果医生使用机器学习模型来进行癌症诊断,医生会想知道,该模型有没有利用数据中我们不想涉及的随机性。确保这一点的一种方法是确认机器学习模型正在做医生会做的事情。换句话说,证明医生自己的诊断知识已经反映在模型中。

因此,如果医生在判断一个细胞是否变成了癌细胞,他们可能会在标本中寻找一种叫做“融合腺(fused glands)”的东西。他们还可以考虑患者的年龄,以及患者过去是否接受过化疗。这些都是医生诊断癌症时关心的因素。如果我们能证明机器学习模型也注意到了这些因素,那么模型就更容易理解了,因为它反映了医生作为人类会具备的知识。

这就是TCAV所做的吗?它揭示了机器学习模型使用哪些高级概念来做出决策?

对。在此之前,可解释性方法只解释了在输入数据的特征上,神经网络做了什么工作。也就是说,如果您有图像,每个像素都是一个输入参数。事实上,Yann Lecun(一位早期的深度学习先驱,目前是Facebook的人工智能研究主管)说,你可以查看神经网络中的每个节点,并查看每个输入的数值。这对电脑来说没问题,但人类不会这样做。我不会告诉你,“哦,看看100到200像素,RGB值是0.2和0.3。”我只会说,“有一张狗的照片,它的毛发真的很蓬松。”这就是人类交流的方式——利用概念。

TCAV如何把输入的数据转化成概念?

让我们回到使用机器学习模型的医生的那个例子,这个机器学习模型已经被训练为将细胞样本的图像按照可能存在的癌症分类。作为医生,你可能想知道“融合腺体”的概念对预测癌症有多重要。首先,你收集一些图像,比如20个,其中有一些含有融合腺体的细胞。现在你将这些标记的示例插入模型中。

那么TCAV内部所做的就是所谓的“敏感性测试”,当我们将这些包含融合腺体的图片放入模型,癌症阳性预测的概率会增加多少?你可以将其输出为一个介于0和1之间的数字,这是你的TCAV得分。如果概率增加,证明这是模型的一个重要概念。如果没有,这就不是一个重要的概念。

“概念”是一个模糊的术语。有没有TCAV不能处理的概念?

如果你不能使用数据表达你的概念,那么它将无法工作。如果你的机器学习模型是在图像上训练的,那么这个概念必须是可视化的。比如说,我想用视觉表达“爱”的概念,这真的很难。

TCAV本质上是为了建立对人工智能的信任,而不是真正的理解它吗?

不是,我们从认知科学和心理学的研究中知道,人类很容易上当受骗。这意味着欺骗一个人去相信某件事其实很容易。机器学习可解释性的目标与此相反。它告诉你一个系统是否安全,重要的是找到真相而不是建立信任。可解释性的重点是揭示人工智能推理中的潜在缺陷。

它怎么能暴露自己的缺陷?

你可以使用TCAV向经过训练的模型测试相关的概念。回到医生使用人工智能进行癌症预测的例子,医生们可能会突然想,“这台机器似乎倾向于对带有蓝色阴影的图像给出患有癌症的预测。我们认为不应该考虑这一因素。”因此,如果带有“蓝色”的TCAV分数很高,这就成为这个机器学习模型的一个缺陷。

TCAV是针对无法解释的机器学习模型设计的。为什么不让系统从一开始就可以解释呢?

可解释性研究的一个分支,侧重于建立反映人类推理方式的固有可解释模型。但我的看法是:现在你在任何地方都有人工智能模型,这些模型已经被构建,并且已经得到重要应用,而从一开始我们就没有考虑过可解释性。这就是事实。谷歌就有很多这样的情况!你可以说,“可解释性是非常有用的,让我为你建立另一个模型来取代你已有的模型。”那好吧,祝你好运。

那你怎么办?

我们仍然需要判断这项技术是否适合我们。这就是我为什么研究“后训练(Posttraining)”的可解释性方法。如果你有一个别人给你的模型,而你不能改变它,你如何去为它的行为生成解释,以便你可以安全地使用它?这就是TCAV工作的意义所在。

你相信如果没有可解释性,人类可能会放弃人工智能技术吗?考虑到它的强大功能,你真的认为这是现实的可能性吗?

是的。专家系统(智能计算机程序系统)就是这样。在20世纪80年代,我们确定他们比人工操作人员执行某些任务更便宜。但现在谁在使用专家系统呢?没有人。之后我们进入了人工智能的冬天。

因为人工智能铺天盖地的宣传和资金的大量投入,现在看起来不太可能放弃人工智能。但从长远来看,我认为人类可能发现——也许是出于恐惧,也许是因为缺乏证据——这项技术不适合我们。这也是可能的。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 计算机
    +关注

    关注

    19

    文章

    7386

    浏览量

    87646
  • 人工智能
    +关注

    关注

    1791

    文章

    46711

    浏览量

    237236
  • 模糊
    +关注

    关注

    0

    文章

    63

    浏览量

    14350

原文标题:我们能不能相信人工智能?

文章出处:【微信号:bdtdsj,微信公众号:中科院半导体所】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    嵌入式和人工智能究竟是什么关系?

    嵌入式和人工智能究竟是什么关系? 嵌入式系统是一种特殊的系统,它通常被嵌入到其他设备或机器中,以实现特定功能。嵌入式系统具有非常强的适应性和灵活性,能够根据用户需求进行定制化设计。它广泛应用于各种
    发表于 11-14 16:39

    谷景科普封装一样的磁棒电感究竟能不能通用

    谷景告诉你封装一样的磁棒电感究竟能不能通用编辑:谷景电子磁棒电感的选型的时候,我们通常会先关注它的封装尺寸,因为这是确保电感能够适配电路板的关键因素。但是,有些人可能会误以为只要封装尺寸相同,任何
    发表于 11-13 22:36 0次下载

    一体成型电感外壳破损还能不能

    电子发烧友网站提供《一体成型电感外壳破损还能不能用.docx》资料免费下载
    发表于 10-31 10:57 0次下载

    《AI for Science:人工智能驱动科学创新》第6章人AI与能源科学读后感

    和国际合作等多个层面。这些内容让我更加认识到,在推动人工智能与能源科学融合的过程中,需要不断探索和创新,以应对各种挑战和机遇。 最后,通过阅读这一章,我深刻感受到人工智能对于能源科学的重要性。人工智能不
    发表于 10-14 09:27

    AI for Science:人工智能驱动科学创新》第4章-AI与生命科学读后感

    很幸运社区给我一个阅读此书的机会,感谢平台。 《AI for Science:人工智能驱动科学创新》第4章关于AI与生命科学的部分,为我们揭示了人工智能技术在生命科学领域中的广泛应用和深远影响。在
    发表于 10-14 09:21

    《AI for Science:人工智能驱动科学创新》第一章人工智能驱动的科学创新学习心得

    深刻认识到人工智能在推动科学进步中的核心价值。它不仅是科技进步的加速器,更是人类智慧拓展的催化剂,引领我们迈向一个更加智慧、高效、可持续的科学研究新时代。
    发表于 10-14 09:12

    risc-v在人工智能图像处理应用前景分析

    RISC-V在人工智能图像处理领域的应用前景十分广阔,这主要得益于其开源性、灵活性和低功耗等特点。以下是对RISC-V在人工智能图像处理应用前景的详细分析: 一、RISC-V的基本特点 RISC-V
    发表于 09-28 11:00

    名单公布!【书籍评测活动NO.44】AI for Science:人工智能驱动科学创新

    ! 《AI for Science:人工智能驱动科学创新》 这本书便将为读者徐徐展开AI for Science的美丽图景,与大家一起去了解: 人工智能究竟帮科学家做了什么? 人工智能
    发表于 09-09 13:54

    UTB定位技术能不能精准定位

    在当今科技日新月异的时代,定位技术以其广泛的应用场景和不断提升的精度,成为了多个领域的核心支撑。其中,UTB定位技术以其高精度、低延迟和高抗干扰性等特点,在众多定位技术中脱颖而出,成为精准定位领域的佼佼者。那么,UTB定位技术到底能不能精准定位呢?下面就给大家具体介绍一下关于UTB定位技术。
    的头像 发表于 09-03 10:07 250次阅读

    光纤弯曲究竟能不能影响光纤传输呢?

    光纤的传输性能受到多种因素的影响,其中弯曲是一个重要的因素。当光纤受到过度弯曲时,会导致光信号的传输受到干扰,从而影响光纤的传输性能。
    的头像 发表于 03-16 14:48 1626次阅读

    嵌入式人工智能的就业方向有哪些?

    嵌入式人工智能的就业方向有哪些? 在新一轮科技革命与产业变革的时代背景下,嵌入式人工智能成为国家新型基础建设与传统产业升级的核心驱动力。同时在此背景驱动下,众多名企也纷纷在嵌入式人工智能领域布局
    发表于 02-26 10:17

    同VLAN不同的网段能不能互通?

    同VLAN不同的网段能不能互通? 同一个VLAN中的设备拥有相同的网络地址范围,因此它们可以通过该VLAN进行通信。而不同VLAN中的设备拥有不同的网络地址范围,它们通常不能直接互通。然而,在某些
    的头像 发表于 02-04 11:21 2881次阅读

    pcb压合缓冲垫,究竟能不能让你的电路板更安全?

    pcb压合缓冲垫,究竟能不能让你的电路板更安全?
    的头像 发表于 12-27 10:13 812次阅读

    C语言中结构体能不能相加

    C语言中,结构体能不能相加?
    的头像 发表于 12-19 17:04 1194次阅读
    C语言中结构体<b class='flag-5'>能不能</b>相加

    几个LED并联,能不能用恒压电源?

    几个LED并联,能不能用恒压电源? LED(Light Emitting Diode)是一种非常常见的光电元件,它具有低功耗、高亮度、长寿命等优点,因此广泛应用于照明、显示和指示等领域。而在实际
    的头像 发表于 11-30 11:43 1096次阅读