0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

一项研究试图让AI的决策过程更加可被解释

IEEE电气电子工程师 来源:未知 作者:李倩 2018-10-04 10:46 次阅读

一直以来,AI 进行图像识别都是一个难以清楚解释的过程,而如今麻省理工学院林肯实验室情报和决策技术小组(Intelligence and Decision Technologies Group)的一项研究试图让 AI 的决策过程更加可被解释。

这个小组在今年夏天的 CVPR 上发表了一篇论文《设计透明:弥合视觉推理的表现与可解释性》(Transparency by Design: Closing the Gap Between Performance andInterpretability in Visual Reasoning),论文中提出的系统可以执行与人类一样的推理步骤来进行与图像识别相关的任务,同时能以图像形式呈现其决策的过程。

论文地址:https://arxiv.org/abs/1803.05268

图 |TbD-net的决策过程 (来源:MIT)

了解神经网络如何做出决策一直是 AI 研究人员长期面对的问题。神经网络是以人的大脑为参照开发的 AI 系统,旨在复制人类学习的方式。简单的神经网络有一个输入层、一个输出层,两者之间还有一个将输入转换为正确的输出结果的层。然而一些深度神经网络非常复杂,无法遵循这种简单的转换过程。所以逐渐地,神经网络的设置层越来越多,决策过程成为了一个“黑箱”问题,内部流程非常不透明,以至于该网络的开发者可能都无法完全掌握。

与此同时,了解 AI 的决策过程非常重要。例如,对用在自动驾驶汽车中的神经网络来说,行人和路牌之间存在什么样的差异?神经网络的哪个决策阶段能够发现两者的区别?只有了解这一过程能够更好地纠正神经网络的一些错误。但目前最先进的神经网络也缺乏有效的机制能让人理解其推理过程。

对此,麻省理工学院林肯实验室情报和决策技术小组开发了一个神经网络,可以执行类似人类的推理步骤来回答与图像相关的问题。该模型被命名为 Transparency by Design Network(简称:TbD-net),

同时,TbD-net 在解决问题时能够用热力图来展示其进行视觉分析的过程,即当系统识别图像时,会对识别的部分进行突出显示,这达到了将决策过程可视化的效果。这种将决策过程可视化的形式让研究人员能够了解这一过程并对其进行分析。

(来源:麻省理工科技评论)

对于 TbD-net 的工作流程,该网络内有众多模块组成的集合,这是该系统中的一个关键部分,这些模块是专门用于执行特定子任务的小型神经网络。在 TbD-net 执行图像识别任务时,它会将问题分解为子任务并分配适当的模块,这些子任务会被分别完成之后再进行组合。

这些模块就像流水线上的工人一样,每个模块基于前一个模块的识别结果进行工作,一起生成了最终的结论。TbD-net 利用的 AI 技术能像理解人类语言一样,将句子分解为多个子任务。而 TbD-net 能够在处理图像时进行类似的处理过程,分不同阶段对图像进行识别。

对于 TbD-net,如果你问它“那个巨大的金属立方体是什么颜色?”那么第一个模块会框定一个大大的物体;第二模块会识别哪些对象是金属;第三模块会在前面得出的结果中找出标准立方体;最后,负责颜色识别的模块会最终得出对象的颜色。

(来源:麻省理工科技评论)

TbD-net 研究人员之一的Majumdar 说:“将一系列复杂的推理分解为一系列较小的问题,每个子问题都可以分别解决再进行组合,是一种强大而直观的推理手段。”

研究人员让 TbD-ne t 经过 7 万图片和 70 万个问题的训练后,再用 1.5 万张图片和 15 万个问题对其进行测试,结果显示其准确度达到 98.7%,优于其他基于神经模块网络的系统。

更重要的是,研究人员能够在这个结果的基础之上继续优化,通过查看模型的决策过程,他们可以找到问题的所在并进行有针对性的优化,最终准确度达到了 99.1%。

除了对神经网络进行优化,这篇论文的作者同时认为,了解神经网络的推理过程可能对获得用户信任大有帮助。用户要能够了解这一推理过程,才能够理解模型为何会作出错误的预测。

(来源:麻省理工科技评论)

过去的几个月中,许多公司、政府机构和独立研究人员试图解决人工智能中所谓的“黑箱”问题,都取得了不同程度的效果。

2017 年,美国国防高级研究计划局(DARPA) 曾推出 DARPA XAI 项目,旨在研究“玻璃箱”模型,在不牺牲性能的情况下让AI 推理过程更加透明。今年 8 月,IBM 的科学家们提出了一份 AI 的“情况说明书”,提供有关模型漏洞、偏见、对抗性攻击易感性和其他特征的信息。微软、埃森哲和 Facebook 也开发了自动化工具来检测和减少 AI 算法中的偏差。

IBM 研究院的 AI 基金会负责人 Aleksandra Mojsilovic 在今年 8 月时曾说道:“AI 系统具有改变我们生活和工作方式的巨大潜力,但透明度问题必须得到解决,这样才能让 AI 得到更多的信任,”

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4597

    浏览量

    99461
  • 图像识别
    +关注

    关注

    8

    文章

    453

    浏览量

    38053
  • AI
    AI
    +关注

    关注

    87

    文章

    27406

    浏览量

    265109

原文标题:AI“黑箱”难题获新突破,MIT研究人员实现AI决策可视化

文章出处:【微信号:IEEE_China,微信公众号:IEEE电气电子工程师】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    基于实物期权的供应链能力柔性决策研究

    基于实物期权的供应链能力柔性决策研究应用实物期权方法研究完全竞争市场环境下的供应链管理中的能力决策问题。通过对能力投资决策的价值分析,给出柔
    发表于 06-14 00:22

    美国普渡大学和哈佛大学的研究人员推出了一项新发明 新...

    据物理学家组织网报道,美国普渡大学和哈佛大学的研究人员推出了一项极为应景的新发明:种外形如同颗圣诞树样的新型晶体管,其重要组件“门”
    发表于 02-03 20:30

    下图中的与打开文件相连的枚举常量是自己一项一项编辑...

    下图中的与打开文件相连的枚举常量是自己一项一项编辑的还是自动就有的?
    发表于 03-17 21:39

    三相电机在通过3s/2r坐标变换后,变成的Ud、Uq最后一项有物理意义吗?

    请问大神,三相电机在通过3s/2r坐标变换后,变成的Ud、Uq最后一项有物理意义吗?我知道是算出来的,但是能解释清楚吗?
    发表于 10-19 14:56

    如何读取下拉列表中的某一项

    现在我做的是个查询的功能,通过下拉列表的选项来选择相应的文件,但是不知道怎样读取所选择的那一项例如选择了粮仓3湿度,2016/11/4日,要打开相应的数据文件
    发表于 11-08 21:33

    DropDown小工具不知道当前选择的是哪一项

    DropDown小工具的API就这么多,真不知道那个函数能返回当前选择的是哪一项,就算是返回选择的索引的函数也没有,都不知道当前选择的是哪一项,那这个DropDown小工具还有什么用,难道只能做出来当摆设,看了例程也没有用它选择的是哪
    发表于 03-09 23:06

    请教Ring控件删除最后一项

    请问:Ring控件,删除其下拉内容最后一项,显示不正常(如显示为:),怎样纠正?
    发表于 04-12 17:09

    关于电机驱动原理的动画,哪位大佬可以分享一项吗?

    关于电机驱动原理的动画,哪位大佬可以分享一项吗?
    发表于 10-13 06:17

    请问如何使滚动列表的最后一项保持在列表底部?

    只显示了最后一项(第 6 )。 我想在那种情况下显示最后 3 个项目。有没有实现它的选项或功能?或者我知道是否有任何其他小部件可以制作它。对不起,我没有解释。我希望可以更轻松地
    发表于 01-30 07:30

    Ai 部署的临界考虑电子指南

    %数据中心的工作量。平方GPU对培训工作量有效,但在人工智能的所有不同阶段都不需要GPU。在2021年的一项研究中,56%的研究受访者将成本列为他们面临的最重大挑战实施AI/ML解决方
    发表于 08-04 07:25

    AI智能呼叫中心

    、数据驱动决策以及人力成本节约,旨在深入剖析其核心优势和对企业的重要意义。、自动化处理AI智能呼叫中心通过引入自然语言处理(NLP)、机器学习和自动化技术,使得呼叫中心的处理过程
    发表于 09-20 17:53

    人工智能黑箱问题取得突破,AI图像识别决策可视化实现

    一直以来,AI 进行图像识别都是一个难以清楚解释过程,而如今麻省理工学院林肯实验室情报和决策技术小组(Intelligence and Decision Technologies G
    的头像 发表于 09-23 09:58 7539次阅读

    AI获得更多信任!麻省理工研究实现人工智能决策可解化

    一直以来,AI 进行图像识别都是一个难以清楚解释过程,而如今麻省理工学院林肯实验室情报和决策技术小组(Intelligence and Decision Technologies G
    的头像 发表于 08-06 15:17 4845次阅读

    谷歌AI服务阐明了机器学习模型如何做出决策

    Google LLC已在其云平台上推出了一项新的“可解释AI”服务,旨在使机器学习模型做出决策过程更加
    发表于 11-30 11:06 929次阅读

    理性理解AI决策过程

    随着人工智能(AI)的发展,其在各个领域的应用越来越广泛,从医疗诊断到金融交易,从自动驾驶到智能家居。然而,尽管AI的能力在不断提升,但其决策过程却常常让人感到困惑和不安。那么,我们应
    的头像 发表于 11-22 09:39 358次阅读