0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

探讨一些可用于解释机器学习模型的不同技术

电子工程师 来源:lp 2019-04-04 17:30 次阅读

【导语】模型的可解释性是大多数机器学习系统都需要的一种能力,即能向用户解释模型能做出这些预测的原因。在本篇文章中,作者将与大家探讨一些可用于解释机器学习模型的不同技术,并且重点介绍两种提供全局和局部解释、且与模型本身无关可解释性技术。这些技术可以应用于任何机器学习算法,并通过分析机器学习模型的响应函数来实现可解释性。

前言

在选择一个合适的机器学习模型时,通常需要我们权衡模型准确性与可解释性之间的关系:

黑盒模型 (black-box):诸如神经网络、梯度增强模型或复杂的集成模型此类的黑盒模型 (black-box model) 通常具有很高的准确性。然而,这些模型的内部工作机制却难以理解,也无法估计每个特征对模型预测结果的重要性,更不能理解不同特征之间的相互作用关系。

白盒模型(white-box):另一方面,像线性回归和决策树之类的简单模型的预测能力通常是有限的,且无法对数据集内在的复杂性进行建模 (如特征交互)。然而,这类简单模型通常有更好的可解释性,内部的工作原理也更容易解释。

模型准确性与可解释性关系之间的权衡取决于一个重要的假设:“可解释性是模型的一个固有属性”。通过正确的可解释性技术,任何机器学习模型内部工作机理都能够得以解释,尽管这需要付出一些复杂性和计算成本的代价。

模型属性

机器学习模型的可解释程度通常与响应函数 (response function) 的两个属性相关。模型的响应函数 f(x) 定义模型的输入 (特征x) 和输出 (目标函数 f(x)) 之间的输入-输出对关系,而这主要取决于机器学习模型,该函数具有以下特征:

线性:在线性响应函数中,特征与目标之间呈线性关系。如果一个特征线性变化,那么期望中目标将以相似的速率线性变化。

单调性:在单调响应函数中,特征与目标对于之间的关系始终在一个方向上变化 (增大或减小)。更重要的是,这种关系适用于整个特征域,且与其他的特征变量无关。

单调线性响应函数实例 (其中输入变量为 x,响应变量为 y)

线性回归模型的响应函数就是个线性单调函数,而随机森林和神经网络的响应函数则是高度非线性、非单调响应函数的例子。

下图则阐述了在需要清晰简单的模型可解释性时,通常首选白盒模型 (具有线性和单调函数) 的原因。图的上半部显示,随着年龄的增长,购买数量会增加,模型的响应函数在全局范围内具有线性和单调关系,易于解释模型。

然而,由于白盒模型响应函数的线性和单调约束,通常容易忽略其变化趋势的重要部分。通过探索更复杂的机器学习模型能够更好地拟合观测数据,而这些复杂模型的响应函数只是在局部呈单调线性变化。因此,为了解释模型的行为,研究模型局部变化情况是很有必要的。

模型可解释性的范围,如全局或局部层面,都与模型的复杂性紧密相关。线性模型在整个特征空间中将表现出相同的行为 (如上图所示),因此它们具有全局可解释性。而输入和输出之间的关系通常受到复杂性和局部解释的限制 (如为什么模型在某个数据点进行某种预测?),将其默认为全局性解释。

对于那些更复杂的模型,模型的全局行为就更难定义了,而且还需要对其响应函数的小区域进行局部解释。这些小区域可能表现出线性和单调,以便得到更准确的解释。

ML 库 (例如 sklearn) 允许对不同分类器进行快速比较。当数据集的大小和维度受限时,我们还可以解释模型的预测结果。但在大多数现实问题中,情况就不再是如此。

接下来将为大家重点介绍两种提供全局和局部解释、且与模型本身无关可解释性技术。这些技术可以应用于任何机器学习算法,并通过分析机器学习模型的响应函数来实现可解释性。

可解释性技术

1、代理模型 (Surrogate models)

代理模型通常是一种简单模型,用于解释那些复杂模型。常用的代理模型有线性模型和决策树模型,主要是由于这些模型易于解释。构建代理模型,将其用于表示复杂模型 (响应函数) 的决策过程,并作用于输入和模型预测,而不是在输入和目标上训练。

代理模型在非线性和非单调模型之上提供了一个全局可解释层,但它们不完全相互依赖。它的作用只要是作为模型的“全局总结”,并不能完美地表示模型底层的响应函数,也不能捕获复杂的特征关系。以下步骤说明了如何为复杂的黑盒模型构建代理模型:

训练一个黑盒模型。

在数据集上评估黑盒模型。

选择一个可解释的代理模型 (通常是线性模型或决策树模型)。

在数据集上训练这个可解释性模型,并预测。

确定代理模型的错误度量,并解释该模型。

2、LIME

LIME 是另一种可解释性技术,它的核心思想与代理模型相同。然而,LIME 并不是通过构建整个数据集的全局代理模型,而只是构建部分区域预测解释的局部代理模型 (线性模型),来解释模型的行为。有关 LIME 技术的深入解释,可以参阅 LIME 有关的文章

文章链接:

https://towardsdatascience.com/understanding-model-predictions-with-lime-a582fdff3a3b

此外,LIME 方法能够提供一种直观的方法来解释给定数据的模型预测结果。有关如何为复杂的黑盒模型构建 LIME 解释模型的步骤如下:

训练一个黑盒模型。

采样局部感兴趣区域的样本点,这些样本点可以从数据集中直接检索,也可以人工生成。

通过邻近的感兴趣区域对新样本进行加权,通过在数据集上使用变量来拟合得到一个加权的、可解释的代理模型。

解释这个局部代理模型。

结论

总的来说,你可以通过几种不同的技术来提高机器学习模型的可解释性。尽管,随着相关领域研究的改进,这些技术也将变得越来越强大,但使用不同技术并进行比较仍然是很重要的。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4649

    浏览量

    99487
  • 机器学习
    +关注

    关注

    66

    文章

    8218

    浏览量

    131257
  • 数据集
    +关注

    关注

    4

    文章

    1190

    浏览量

    24470

原文标题:机器学习的可解释性:黑盒vs白盒(内附开源学习书) | Deep Reading

文章出处:【微信号:rgznai100,微信公众号:rgznai100】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    机器学习模型解释性的结果分析

    模型的可解释性是机器学习领域的一个重要分支,随着 AI 应用范围的不断扩大,人们越来越不满足于模型的黑盒特性,与此同时,金融、自动驾驶等领域
    发表于 09-28 10:17 685次阅读
    <b class='flag-5'>机器</b><b class='flag-5'>学习</b><b class='flag-5'>模型</b>可<b class='flag-5'>解释</b>性的结果分析

    如何通过XGBoost解释机器学习

    本文为大家介绍用XGBoost解释机器学习。 这是一个故事,关于错误地解释机器学习
    发表于 10-12 11:48 1660次阅读
    如何通过XGBoost<b class='flag-5'>解释</b><b class='flag-5'>机器</b><b class='flag-5'>学习</b>

    学习一些机器人控制方面的工作,要学习什么内容!

    本人应届毕业生枚,即将从事机器人方面工作,想学习一些机器人控制,变成方面的知识
    发表于 11-20 15:21

    介绍下labview机器视觉怎么实现一些零件尺寸的测量。

    本帖最后由 forgiveroc 于 2016-9-10 18:25 编辑 RT,针对入门,高手多多指教呀~。断断续续的学习下labview机器视觉,做了一些简单的案例,在这
    发表于 03-12 16:36

    【下载】《机器学习》+《机器学习实战》

    数据分析及可视化。通过各种实例,读者可从中学会机器学习的核心算法,并能将其运用于一些策略性任务中,如分类、预测、推荐。另外,还可用它们来实现
    发表于 06-01 15:49

    Python机器学习常用库

    分布和模型收敛的诊断工具,也包含一些层次模型。四、GensimGensim被称为“人们的主题建模工具”,其焦点是狄利克雷划分及变体,其支持自然语言处理,能将NLP和其他机器
    发表于 03-26 16:29

    软体机器人学习问题探讨

    学习探讨软体机器人结构设计、柔性制造、运动控制、装配和调试等内容,使学员熟练应用控制工程理论、自动化、材料力学、机械原理、机械设计、3D打印等基础知识,培养和提高学员对软体机器人目
    发表于 08-12 15:09

    什么是机器学习? 机器学习基础入门

    工程师在数据收集过程中使用标签对数据集进行分类数据收集和标记是个耗时的过程,但对于正确处理数据至关重要。虽然机器学习领域有一些创新,利用预先训练的
    发表于 06-21 11:06

    部署基于嵌入的机器学习模型

    还需要处理模型的更新。模型更新的速度甚至可以非常高,因为模型需要定期地根据最新的数据进行再训练。  本文将描述种更复杂的机器
    发表于 11-02 15:09

    Explainable AI旨在提高机器学习模型的可解释

    Google Cloud AI战略总监Tracy Frey在 今天的博客中解释说,Explainable AI旨在提高机器学习模型的可解释
    的头像 发表于 03-24 15:14 2761次阅读

    详谈机器学习的决策树模型

    决策树模型是白盒模型的一种,其预测结果可以由人来解释。我们把机器学习模型的这一特性称为可
    的头像 发表于 07-06 09:49 3312次阅读
    详谈<b class='flag-5'>机器</b><b class='flag-5'>学习</b>的决策树<b class='flag-5'>模型</b>

    关于机器学习模型的六大可解释技术

    本文介绍目前常见的几种可以提高机器学习模型的可解释性的技术
    的头像 发表于 02-26 17:20 1992次阅读
    关于<b class='flag-5'>机器</b><b class='flag-5'>学习</b><b class='flag-5'>模型</b>的六大可<b class='flag-5'>解释</b>性<b class='flag-5'>技术</b>

    机器学习模型的可解释性算法详解

    本文介绍目前常见的几种可以提高机器学习模型的可解释性的技术,包括它们的相对优点和缺点。
    的头像 发表于 02-16 16:21 4300次阅读
    <b class='flag-5'>机器</b><b class='flag-5'>学习</b><b class='flag-5'>模型</b>的可<b class='flag-5'>解释</b>性算法详解

    解释机器学习

    解释机器学习
    发表于 06-17 14:41 1次下载

    可以提高机器学习模型的可解释技术

    本文介绍目前常见的几种可以提高机器学习模型的可解释性的技术,包括它们的相对优点和缺点。
    的头像 发表于 02-08 14:08 1025次阅读