0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

CNN根本无需理解图像全局结构,一样也能SOTA?

OpenCV学堂 来源:量子位 作者:量子位 2022-06-09 10:51 次阅读

不给全图,只投喂CNN一些看上去毫无信息量的图像碎片,就能让模型学会图像分类。

更重要的是,性能完全不差,甚至还能反超用完整图像训练的模型。

796d0e56-e739-11ec-ba43-dac502259ad0.png

这么一项来自加州大学圣塔芭芭拉分校的新研究,这两天引发不少讨论。

咋地,这就是说,CNN根本无需理解图像全局结构,一样也能SOTA?

79a3bafa-e739-11ec-ba43-dac502259ad0.png

具体是怎么一回事,咱们还是直接上论文。

实验证据

研究人员设计了这样一个实验:

他们在CIFAR-10、CIFAR-100、STL-10、Tiny-ImageNet-200以及Imagenet-1K等数据集上训练ResNet。

特别的是,用于训练的图像是通过随机裁剪得到的。

这个“随机裁剪”,可不是往常我们会在数据增强方法中见到的那一种,而是完全不做任何填充。

举个例子,就是对图片做PyTorch的RandomCrop变换时,padding的参数填0。

得到的训练图像就是下面这个样式的。即使你是阅图无数的老司机,恐怕也分辨不出到底是个啥玩意儿。

79d0c3ce-e739-11ec-ba43-dac502259ad0.png

训练图像如此碎片化,模型的识图能力又能达到几成?

来看实验结果:

79edc60e-e739-11ec-ba43-dac502259ad0.png

好家伙,在CIFAR-10上,用16×16的图像碎片训练出来的模型,测试准确率能达到91%,而用完整的32×32尺寸图像训练出来的模型,测试准确率也不过90%。

这一波,“残缺版”CNN竟然完全不落下风,甚至还反超了“完整版”CNN。

要知道,被喂了碎片的CNN模型,看到的图像甚至可能跟标签显示的物体毫无关系,只是原图中背景的部分……

在STL-10、Tiny-Imagenet-200等数据集上,研究人员也得到了类似的结果。

不过,在CIFAR-100上,还是完整图像训练出来的模型略胜一筹。16×16图像碎片训练出的模型测试准确率为61%,而32×32完整图像训练出的模型准确率为68%。

所以,CNN为何会有如此表现?莫非它本来就是个“近视眼”?

研究人员推测,CNN能有如此优秀的泛化表现,是因为在这个实验中,维度诅咒的影响被削弱了。

所谓维度诅咒(curse of dimensionality),是指当维数提高时,空间体积提高太快,导致可用数据变得稀疏。

而在这项研究中,由于CNN学习到的不是整个图像的标签,而是图像碎片的标签,这就在两个方面降低了维度诅咒的影响:

图像碎片的像素比完整图像小得多,这减少了输入维度

训练期间可用的样本数量增加了

生成热图

基于以上实验观察结果,研究人员还提出以热图的形式,来理解CNN的预测行为,由此进一步对模型的错误做出“诊断”。

就像这样:

7a1871ce-e739-11ec-ba43-dac502259ad0.png

这些图像来自于STL-10数据集。热图显示,对于CNN而言,飞机图像中最能“刺激”到模型的,不是飞机本身,而是天空。

同样,在汽车图像中,车轮才是CNN用来识别图像的主要属性。

论文地址: https://arxiv.org/abs/2205.10760

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 图像分类
    +关注

    关注

    0

    文章

    90

    浏览量

    11936
  • 数据集
    +关注

    关注

    4

    文章

    1208

    浏览量

    24726
  • cnn
    cnn
    +关注

    关注

    3

    文章

    352

    浏览量

    22239

原文标题:不看全图看局部,CNN性能竟然更强了

文章出处:【微信号:CVSCHOOL,微信公众号:OpenCV学堂】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    Mamba入局图像复原,达成新SOTA

    MambaIRv2,更高性能、更高效率!另外还有ACM MM 2024上的Freqmamba方法,在图像去雨任务中取得了SOTA性能! 显然,这种基于Mamba的方法在图像复原领域,比基于CN
    的头像 发表于 12-30 18:09 116次阅读
    Mamba入局<b class='flag-5'>图像</b>复原,达成新<b class='flag-5'>SOTA</b>

    封装一样的磁棒电感通用吗

    电子发烧友网站提供《封装一样的磁棒电感通用吗.docx》资料免费下载
    发表于 10-28 11:15 0次下载

    使用的TPA3116和3118一样,工作频率越高IC的发热越大,这样的情况是否正常?

    我使用的TPA3116和3118一样,工作频率越高IC的发热越大,这样的情况是否正常啊。般我理解的 是工作频率越高,效率就越高,发热应该越小才对。特别是在没有输入信号的时候,静态对比非常明显
    发表于 10-28 07:40

    OPA361输入为复合视频,输出视频图像画面异常,跟过曝一样,为什么?

    输入为复合视频,输出视频图像画面异常,跟过曝一样,不知到是什么原因?
    发表于 08-19 06:24

    Stem32CubeIDE像Keil一样指定不同文件下的代码编译吗?

    Stem32CubeIDE像Keil一样指定不同文件下的代码编译
    发表于 07-23 06:22

    图像分割与语义分割中的CNN模型综述

    图像分割与语义分割是计算机视觉领域的重要任务,旨在将图像划分为多个具有特定语义含义的区域或对象。卷积神经网络(CNN)作为深度学习的种核心模型,在
    的头像 发表于 07-09 11:51 973次阅读

    如何利用CNN实现图像识别

    卷积神经网络(CNN)是深度学习领域中种特别适用于图像识别任务的神经网络结构。它通过模拟人类视觉系统的处理方式,利用卷积、池化等操作,自动提取图像
    的头像 发表于 07-03 16:16 1430次阅读

    cnn卷积神经网络分类有哪些

    卷积神经网络(CNN)是种深度学习模型,广泛应用于图像分类、目标检测、语义分割等领域。本文将详细介绍CNN在分类任务中的应用,包括基本结构
    的头像 发表于 07-03 09:28 641次阅读

    CNN模型的基本原理、结构、训练过程及应用领域

    卷积神经网络(Convolutional Neural Network,简称CNN)是种深度学习模型,广泛应用于图像识别、视频分析、自然语言处理等领域。CNN模型的核心是卷积层
    的头像 发表于 07-02 15:26 3777次阅读

    深度神经网络模型cnn的基本概念、结构及原理

    深度神经网络模型CNN(Convolutional Neural Network)是种广泛应用于图像识别、视频分析和自然语言处理等领域的深度学习模型。 引言 深度学习是近年来人工智能领域的研究热点
    的头像 发表于 07-02 10:11 9773次阅读

    NB81是否支持OneNet SOTA功能?应该如何激活SOTA

    NB81是否支持OneNet SOTA功能? 可以支持,应该如何激活SOTA
    发表于 06-04 06:14

    锰芯磁环电感尺寸一样性能一样

    电子发烧友网站提供《锰芯磁环电感尺寸一样性能一样吗.docx》资料免费下载
    发表于 06-03 14:52 0次下载

    旋变位置不变的情况下,当使SOTA功能与关闭SOTA功能时,APP中DSADC采样得到的旋变sin和cos两者值不一样,为什么?

    旋变位置不变的情况下,当使SOTA功能与关闭SOTA功能时,APP中DSADC采样得到的旋变sin和cos两者值不一样,用示波器采的输入到MCU端的差分电压是
    发表于 05-17 08:13

    贴片大电流电感感值一样通用吗

    电子发烧友网站提供《贴片大电流电感感值一样通用吗.docx》资料免费下载
    发表于 01-22 09:23 0次下载

    计算机视觉:AI如何识别与理解图像

    计算机视觉是人工智能领域的个重要分支,它致力于让机器能够像人类一样理解和解释图像。随着深度学习和神经网络的发展,人们对于如何让AI识别和理解
    的头像 发表于 01-12 08:27 1473次阅读
    计算机视觉:AI如何识别与<b class='flag-5'>理解</b><b class='flag-5'>图像</b>