0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

对于模型和数据的可视化及可解释性的研究方法进行回顾

nlfO_thejiangme 来源:未知 作者:李倩 2018-06-21 18:09 次阅读

一年一度的CVPR在盐湖城开幕啦!最新的消息:

今年的最佳论文,授予了来自斯坦福大学和 UC Berkeley 的 Amir R. Zamir等人的“Taskonomy: Disentangling Task Transfer Learning”。

最佳学生论文则被来自CMU的Hanbyul Joo等人凭借“Total Capture: A 3D Deformation Model for Tracking Faces, Hands, and Bodies”摘得。

同时,也要恭喜昨天刚被我“门”蹭热度的Kaiming大神荣获PAMI 年轻学者奖.

除了明星奖项的揭晓,会议第一天最吸引人的除了workshop外就是一个个专题tutorial了:

周一的会议共开设了11个专题tutorial,我们下面就为大家介绍其中一些有趣的tutorial。

一些已经放出来的tutorials slides下载见附件:

https://pan.baidu.com/s/1yv8orYTbsYLNnlTlCVc_Pw

机器学习的可解释性对于研究人员来说有着十分重要的作用,它除了可以帮助我们理解模型运行的机理外,还能帮助我们有的放矢地提高模型的表现甚至启发我们开发新的模型。Tutorial:Interpretable Machine Learning for Computer Vision就为我们带来了这方面的内容。

这个tutorial着眼于复杂的机器学习模型在计算机视觉方面的应用。计算机视觉在物体识别、标注和视觉问答等方面有着广泛的应用,但很多时候深度学习模型和神经网络的运作机理对我们来说还像黑箱一样无法清晰透彻的了解。随着近年来模型的深度加深,我们理解模型及其预测结果的过程变得日益困难。

这一tutorial将通过模型的可解释性广泛回顾计算机视觉的各个研究领域,除了介绍可解释性的基本知识及其重要性外,还将就目前对于模型和数据的可视化及可解释性的研究方法进行回顾。

Tutorial包含了四个演讲,分别是:

来自谷歌大脑的Been Kim带来了“机器学习中可解释的介绍”;

来自FAIR的Laurens van der Maaten作的“利用t分布随机邻近嵌入方法用于视觉模型理解的准则”;

来自MIT的周博磊带来的:“重新审视深度网络中单一单位(Single Units )的重要性”;

最后是来自牛津大学的Andrea Vedaldi带来的“利用自然原像、有意义扰动和矢量嵌入来理解深度网络”。

https://interpretablevision.github.io/

除了这个tutorial之外还有一个类似的tutorial:Interpreting and Explaining Deep Models in Computer Vision。

这一tutorial就视觉领域的可解释性进行了概览,提供了如何在实践中使用这些技术的例子,并对不同的技术进行了分类。其主要内容如下:

可解释性的定义;

理解深度表示的技术和解释DNN中个体预测;

定量评测可解释性的方法;

实践中应用可解释性;

利用可解释模型在复杂系统中得到新的见解。

另一个有趣的tutorial是:Computer Vision for Robotics and Driving,这一tutorial主要由来自谷歌大脑的Anelia Angelova和来自多伦多大学的Sanja Fidler进行讲解,主要讲解了计算机视觉深度学习在机器人(以及自动驾驶)方面的发展、应用和新的研究机会。

机器人视觉的特殊性主要在于数据和任务上,首先输入数据是多模态(多传感器)数据,而输出则需要三维数据(很多情况下是稀疏的)。在实际情况中,需要在实时性、启发式理解、环境交互方面有着良好的表现。

这一领域中新的研究机会主要在以下几个方面:

多传感器、多输入、数据相关性的研究;

结构化特征的使用和学习;

自监督学习;

联合感知、规划和行为;

主动感知技术;

同时就机器人在三维空间中的学习问题和自动驾驶中的深度学习问题进行了深入的报告。希望研究机器人或者感兴趣的朋友们可以从中获得需要的信息

除此之外,对于发展势头越来越旺的非监督学习谷歌大脑和谷歌Research联合推出了一个tutorial:Unsupervised Visual Learning。

这一tutorial从非监督学习的各种优点谈起,从新的特征表示到擅长处理的特定问题,从加速学习过程到减少样本使用量等各个方面进行了展开。随后利用一个报告详细阐述了如何从视频(时序相关)和图像(空间相关)数据中学习特征表示,并在另一个报告中延伸了如何从真实世界的3D数据中进行学习,包括特征、深度的学习以及特征点的匹配问题。最后阐述了自监督学习在机器人中的应用,并用了三个例子进行了阐述:

从深度信息中进行在线自监督学习;

用于抓取的自监督学习过程;

模仿学习;

几何和三维重建是计算机视觉的重要部分,今年也有多个相关的tutorial进行了深入地探讨。

首先来自印度理学院的Venu Madhav Govindu介绍了基于Motion Averaging的方法进行大规模三维重建的方法,其tutorial系统的介绍了基于李群的方法,并归纳了不同的motion averaging方法,同时还对算法进行了最佳实践。这一tutorial旨在帮助研究人员们在新环境中使用这一方法用于大规模SFM以及三维稠密建模。

另一个tutorial则从优化方面介绍了一种基于L无穷的最小化方法来解决一系列L2最小化所面临的问题。这一tutorial讲解了基于L-infinity的几何视觉优化方法,通过数学和算法概念以及应用来深入理解如何使用这种新的优化概念。

在感知层面,多视角视觉数据分析tutorial主要着重于常见的多视角视觉数据的分析及其主要的应用,包括多视角聚类、分类和零样本学习,并讨论了目前和未来将要面对的挑战。

另一个相关的tutorial着重于超快的3D感知、重建和理解,将在22号举办。对于3D环境的捕捉、重建了理解使得人们需要建立高质量的传感器和高效的算法。研究人员们建立了一套高帧率的深度传感器系统,超快的帧率(~1000fps)使得帧间移动大幅减少,同时使得多传感器的融合变得简单。基于此研发出了高效的重建、跟踪和理解算法。Tutorial介绍了从零开发这一传感器的来龙去脉。

对于视觉本质的理解Tutorial:A Crash Course on Human Vision

从low,Mid,High level提供了不同层次的理解。它讲解了人类的视觉系统,并提供了认识了理解视觉系统的方法,以助于前沿计算机视觉的研究。Tutorial分为两个部分,首先从Low-level开始,讲述了光的物理本质、视网膜的生理构成,以及颜色、感受野、V1过程和运动感知;第二部分从感知深度和大小、视觉注意力和以及以及识别等方面及进行了阐述。

最后一个关于人类行为识别的Tutorial:Human Activity Recognition。这一领域的研究热点主要集中在一下几个方面:

行为可靠的时空定位;

行为的端到端模型;

群体行为识别;

行为预测;

大规模数据集和卷积模型的的建立;

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 机器人
    +关注

    关注

    211

    文章

    28398

    浏览量

    206996
  • 深度学习
    +关注

    关注

    73

    文章

    5502

    浏览量

    121124

原文标题:知识点 | CVPR 2018 最佳论文揭晓,Tutorials首日速览(附下载)

文章出处:【微信号:thejiangmen,微信公众号:将门创投】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    机器学习模型可解释性的结果分析

    AI 一文中我们已经了解到模型可解释性发展的相关背景以及目前较为成熟的技术方法,本文通过一个具体实例来了解下在 MATLAB 中是如何使用这些方法的,以及在得到
    发表于 09-28 10:17 997次阅读
    机器学习<b class='flag-5'>模型</b><b class='flag-5'>可解释性</b>的结果分析

    什么是“可解释的”? 可解释性AI不能解释什么

    通过建立既可解释又准确的模型来改良这种错误的二分法。关键是将神经网络与决策树相结合,在使用神经网络进行低级决策时保留高级的可解释性
    发表于 05-31 10:51 8522次阅读

    【大规模语言模型:从理论到实践】- 阅读体验

    和抗噪声能力;以及通过可视化工具来增强模型解释性等。同时,随着技术的不断进步和发展,在未来能够发展出更加高效、健壮和可解释的大语言模型
    发表于 06-07 14:44

    常见的几种可视化介绍

    说说常见的几种可视化一、信息可视化信息可视化就是对抽象数据进行直观视觉呈现的研究,抽象
    发表于 07-12 07:49

    机器学习模型的“可解释性”的概念及其重要意义

    如果考察某些类型的“事后可解释性”(post-hoc interpretable),深度神经网络具有明显的优势。深度神经网络能够学习丰富的表示,这些表示能够可视化、用语言表达或用于聚类。如果考虑对可解释性的需求,似乎线性
    的头像 发表于 07-24 09:58 2w次阅读

    神经网络可解释性研究的重要日益凸显

    神经网络的可解释性,从经验主义到数学建模
    的头像 发表于 06-27 10:54 5244次阅读

    Explainable AI旨在提高机器学习模型可解释性

    Google Cloud AI战略总监Tracy Frey在 今天的博客中解释说,Explainable AI旨在提高机器学习模型可解释性。她说,这项新服务的工作原理是量化每个数据
    的头像 发表于 03-24 15:14 2946次阅读

    机器学习模型可解释性的介绍

    模型可解释性方面的研究,在近两年的科研会议上成为关注热点,因为大家不仅仅满足于模型的效果,更对模型效果的原因产生更多的思考,这...
    的头像 发表于 12-10 20:19 772次阅读

    图神经网络的解释性综述

    :https://arxiv.org/pdf/2012.15445.pdf 参考文献 0.Abstract近年来,深度学习模型可解释性研究在图像和文本领域取得了显著进展
    的头像 发表于 04-09 11:42 2690次阅读
    图神经网络的<b class='flag-5'>解释性</b>综述

    《计算机研究与发展》—机器学习的可解释性

    机器学习的可解释性 来源:《计算机研究与发展》,作者陈珂锐等 摘 要 近年来,机器学习发展迅速,尤其是深度学习在图像、声音、自然语言处理等领域取得卓越成效.机器学习算法的表示能力大幅度提高,但是
    发表于 01-25 08:35 1118次阅读
    《计算机<b class='flag-5'>研究</b>与发展》—机器学习的<b class='flag-5'>可解释性</b>

    关于机器学习模型的六大可解释性技术

    本文介绍目前常见的几种可以提高机器学习模型可解释性的技术。
    的头像 发表于 02-26 17:20 2195次阅读
    关于机器学习<b class='flag-5'>模型</b>的六大<b class='flag-5'>可解释性</b>技术

    机器学习模型可解释性算法详解

    本文介绍目前常见的几种可以提高机器学习模型可解释性的技术,包括它们的相对优点和缺点。
    的头像 发表于 02-16 16:21 4697次阅读
    机器学习<b class='flag-5'>模型</b>的<b class='flag-5'>可解释性</b>算法详解

    使用RAPIDS加速实现SHAP的模型可解释性

      模型解释性 帮助开发人员和其他利益相关者理解模型特征和决策的根本原因,从而使流程更加透明。能够解释模型可以帮助
    的头像 发表于 04-21 09:25 2472次阅读

    可以提高机器学习模型可解释性技术

    本文介绍目前常见的几种可以提高机器学习模型可解释性的技术,包括它们的相对优点和缺点。
    的头像 发表于 02-08 14:08 1246次阅读

    文献综述:确保人工智能可解释性和可信度的来源记录

    本文对数据起源、可解释AI(XAI)和可信赖AI(TAI)进行系统的文献综述,以解释基本概念,说明数据起源文件可以用来提升基于人工智能系统实
    的头像 发表于 04-28 15:55 1398次阅读
    文献综述:确保人工智能<b class='flag-5'>可解释性</b>和可信度的来源记录