0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

机器学习模型的可解释性算法汇总

jt_rfid5 来源:机器视觉沙龙 作者:机器视觉沙龙 2023-02-03 11:34 次阅读

目前很多机器学习模型可以做出非常好的预测,但是它们并不能很好地解释他们是如何进行预测的,很多数据科学家都很难知晓为什么该算法会得到这样的预测结果。这是非常致命的,因为如果我们无法知道某个算法是如何进行预测,那么我们将很难将其前一道其它的问题中,很难进行算法的debug。

本文介绍目前常见的几种可以提高机器学习模型的可解释性的技术,包括它们的相对优点和缺点。我们将其分为下面几种:

Partial Dependence Plot (PDP);

Individual Conditional Expectation (ICE)

Permuted Feature Importance

Global Surrogate

Local Surrogate (LIME)

Shapley Value (SHAP)

六大可解释性技术

01Partial Dependence Plot (PDP)

PDP是十几年之前发明的,它可以显示一个或两个特征对机器学习模型的预测结果的边际效应。它可以帮助研究人员确定当大量特征调整时,模型预测会发生什么样的变化。

d2618566-a267-11ed-bfe3-dac502259ad0.png

上面图中,轴表示特征的值,轴表示预测值。阴影区域中的实线显示了平均预测如何随着值的变化而变化。PDP能很直观地显示平均边际效应,因此可能会隐藏异质效应。

例如,一个特征可能与一半数据的预测正相关,与另一半数据负相关。那么PDP图将只是一条水平线。

02Individual Conditional Expectation (ICE)

ICE和PDP非常相似,但和PDP不同之处在于,PDP绘制的是平均情况,但是ICE会显示每个实例的情况。ICE可以帮助我们解释一个特定的特征改变时,模型的预测会怎么变化。

d270b086-a267-11ed-bfe3-dac502259ad0.png

如上图所示,与PDP不同,ICE曲线可以揭示异质关系。但其最大的问题在于:它不能像PDP那样容易看到平均效果,所以可以考虑将二者结合起来一起使用。

03Permuted Feature Importance

Permuted Feature Importance的特征重要性是通过特征值打乱后模型预测误差的变化得到的。换句话说,Permuted Feature Importance有助于定义模型中的特征对最终预测做出贡献的大小。

d28571d8-a267-11ed-bfe3-dac502259ad0.png

如上图所示,特征f2在特征的最上面,对模型的误差影响是最大的,f1在shuffle之后对模型却几乎没什么影响,生息的特征则对于模型是负面的贡献。

04Global Surrogate

Global Surrogate方法采用不同的方法。它通过训练一个可解释的模型来近似黑盒模型的预测。

首先,我们使用经过训练的黑盒模型对数据集进行预测;

然后我们在该数据集和预测上训练可解释的模型。

训练好的可解释模型可以近似原始模型,我们需要做的就是解释该模型。

注:代理模型可以是任何可解释的模型:线性模型、决策树、人类定义的规则等。

d293e3a8-a267-11ed-bfe3-dac502259ad0.png

使用可解释的模型来近似黑盒模型会引入额外的误差,但额外的误差可以通过R平方来衡量。

由于代理模型仅根据黑盒模型的预测而不是真实结果进行训练,因此全局代理模型只能解释黑盒模型,而不能解释数据。

05Local Surrogate (LIME)

LIME(Local Interpretable Model-agnostic Explanations)和global surrogate是不同的,因为它不尝试解释整个模型。相反,它训练可解释的模型来近似单个预测。LIME试图了解当我们扰乱数据样本时预测是如何变化的。

上面左边的图像被分成可解释的部分。然后,LIME 通过“关闭”一些可解释的组件(在这种情况下,使它们变灰)来生成扰动实例的数据集。对于每个扰动实例,可以使用经过训练的模型来获取图像中存在树蛙的概率,然后在该数据集上学习局部加权线性模型。最后,使用具有最高正向权重的成分来作为解释。

06Shapley Value (SHAP)

Shapley Value的概念来自博弈论。我们可以通过假设实例的每个特征值是游戏中的“玩家”来解释预测。每个玩家的贡献是通过在其余玩家的所有子集中添加和删除玩家来衡量的。一名球员的Shapley Value是其所有贡献的加权总和。Shapley 值是可加的,局部准确的。如果将所有特征的Shapley值加起来,再加上基值,即预测平均值,您将得到准确的预测值。这是许多其他方法所没有的功能。

d2c5c738-a267-11ed-bfe3-dac502259ad0.png

该图显示了每个特征的Shapley值,表示将模型结果从基础值推到最终预测的贡献。红色表示正面贡献,蓝色表示负面贡献。

小结

机器学习模型的可解释性是机器学习中一个非常活跃而且重要的研究领域。本文中我们介绍了6种常用的用于理解机器学习模型的算法。大家可以依据自己的实践场景进行使用。

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 算法
    +关注

    关注

    23

    文章

    4607

    浏览量

    92833
  • PDP
    PDP
    +关注

    关注

    0

    文章

    53

    浏览量

    36213
  • 模型
    +关注

    关注

    1

    文章

    3226

    浏览量

    48807
  • 机器学习
    +关注

    关注

    66

    文章

    8406

    浏览量

    132561
  • LIME
    +关注

    关注

    0

    文章

    7

    浏览量

    8515

原文标题:【光电智造】机器学习模型的可解释性算法汇总!

文章出处:【微信号:今日光电,微信公众号:今日光电】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    机器学习模型可解释性的结果分析

    模型可解释性机器学习领域的一个重要分支,随着 AI 应用范围的不断扩大,人们越来越不满足于模型的黑盒特性,与此同时,金融、自动驾驶等领域
    发表于 09-28 10:17 993次阅读
    <b class='flag-5'>机器</b><b class='flag-5'>学习</b><b class='flag-5'>模型</b><b class='flag-5'>可解释性</b>的结果分析

    什么是“可解释的”? 可解释性AI不能解释什么

    通过建立既可解释又准确的模型来改良这种错误的二分法。关键是将神经网络与决策树相结合,在使用神经网络进行低级决策时保留高级的可解释性
    发表于 05-31 10:51 8521次阅读

    机器学习模型的“可解释性”的概念及其重要意义

    如果考察某些类型的“事后可解释性”(post-hoc interpretable),深度神经网络具有明显的优势。深度神经网络能够学习丰富的表示,这些表示能够可视化、用语言表达或用于聚类。如果考虑对可解释性的需求,似乎线性
    的头像 发表于 07-24 09:58 2w次阅读

    神经网络可解释性研究的重要日益凸显

    神经网络的可解释性,从经验主义到数学建模
    的头像 发表于 06-27 10:54 5243次阅读

    Explainable AI旨在提高机器学习模型可解释性

    Google Cloud AI战略总监Tracy Frey在 今天的博客中解释说,Explainable AI旨在提高机器学习模型可解释性
    的头像 发表于 03-24 15:14 2945次阅读

    详谈机器学习的决策树模型

    决策树模型是白盒模型的一种,其预测结果可以由人来解释。我们把机器学习模型的这一特性称为
    的头像 发表于 07-06 09:49 3587次阅读
    详谈<b class='flag-5'>机器</b><b class='flag-5'>学习</b>的决策树<b class='flag-5'>模型</b>

    机器学习模型可解释性的介绍

    模型可解释性方面的研究,在近两年的科研会议上成为关注热点,因为大家不仅仅满足于模型的效果,更对模型效果的原因产生更多的思考,这...
    的头像 发表于 12-10 20:19 770次阅读

    一种拥有较好可解释性的启发式多分类集成算法

    安全得到重视,传统融合策略可解释性差的冋题凸显。夲文基于心理学中的知识线记忆理论进行建模参考人类决策过程,提出了一种拥有较好可解释性的启发式多分类器集成算法,称为知识线集成
    发表于 03-24 11:41 13次下载
    一种拥有较好<b class='flag-5'>可解释性</b>的启发式多分类集成<b class='flag-5'>算法</b>

    《计算机研究与发展》—机器学习可解释性

    伴随着模型复杂度的增加,机器学习算法可解释性越差,至今,机器
    发表于 01-25 08:35 1113次阅读
    《计算机研究与发展》—<b class='flag-5'>机器</b><b class='flag-5'>学习</b>的<b class='flag-5'>可解释性</b>

    关于机器学习模型的六大可解释性技术

    本文介绍目前常见的几种可以提高机器学习模型可解释性的技术。
    的头像 发表于 02-26 17:20 2189次阅读
    关于<b class='flag-5'>机器</b><b class='flag-5'>学习</b><b class='flag-5'>模型</b>的六大<b class='flag-5'>可解释性</b>技术

    机器学习模型可解释性算法详解

    本文介绍目前常见的几种可以提高机器学习模型可解释性的技术,包括它们的相对优点和缺点。
    的头像 发表于 02-16 16:21 4688次阅读
    <b class='flag-5'>机器</b><b class='flag-5'>学习</b><b class='flag-5'>模型</b>的<b class='flag-5'>可解释性</b><b class='flag-5'>算法</b>详解

    使用RAPIDS加速实现SHAP的模型可解释性

      模型解释性 帮助开发人员和其他利益相关者理解模型特征和决策的根本原因,从而使流程更加透明。能够解释模型可以帮助数据科学家
    的头像 发表于 04-21 09:25 2470次阅读

    可解释机器学习

    可解释机器学习
    发表于 06-17 14:41 1次下载

    可以提高机器学习模型可解释性技术

    本文介绍目前常见的几种可以提高机器学习模型可解释性的技术,包括它们的相对优点和缺点。
    的头像 发表于 02-08 14:08 1243次阅读

    机器学习算法汇总 机器学习算法分类 机器学习算法模型

    机器学习算法汇总 机器学习算法分类
    的头像 发表于 08-17 16:11 1098次阅读