CNN根本无需理解图像全局结构,一样也能SOTA?

不给全图,只投喂cnn一些看上去毫无信息量的图像碎片,就能让模型学会图像分类。
更重要的是,性能完全不差,甚至还能反超用完整图像训练的模型。
这么一项来自加州大学圣塔芭芭拉分校的新研究,这两天引发不少讨论。
咋地,这就是说,cnn根本无需理解图像全局结构,一样也能sota?
具体是怎么一回事,咱们还是直接上论文。
实验证据
研究人员设计了这样一个实验:
他们在cifar-10、cifar-100、stl-10、tiny-imagenet-200以及imagenet-1k等数据集上训练resnet。
特别的是,用于训练的图像是通过随机裁剪得到的。
这个“随机裁剪”,可不是往常我们会在数据增强方法中见到的那一种,而是完全不做任何填充。
举个例子,就是对图片做pytorch的randomcrop变换时,padding的参数填0。
得到的训练图像就是下面这个样式的。即使你是阅图无数的老司机,恐怕也分辨不出到底是个啥玩意儿。
训练图像如此碎片化,模型的识图能力又能达到几成?
来看实验结果:
好家伙,在cifar-10上,用16×16的图像碎片训练出来的模型,测试准确率能达到91%,而用完整的32×32尺寸图像训练出来的模型,测试准确率也不过90%。
这一波,“残缺版”cnn竟然完全不落下风,甚至还反超了“完整版”cnn。
要知道,被喂了碎片的cnn模型,看到的图像甚至可能跟标签显示的物体毫无关系,只是原图中背景的部分……
在stl-10、tiny-imagenet-200等数据集上,研究人员也得到了类似的结果。
不过,在cifar-100上,还是完整图像训练出来的模型略胜一筹。16×16图像碎片训练出的模型测试准确率为61%,而32×32完整图像训练出的模型准确率为68%。
所以,cnn为何会有如此表现?莫非它本来就是个“近视眼”?
研究人员推测,cnn能有如此优秀的泛化表现,是因为在这个实验中,维度诅咒的影响被削弱了。
所谓维度诅咒(curse of dimensionality),是指当维数提高时,空间体积提高太快,导致可用数据变得稀疏。
而在这项研究中,由于cnn学习到的不是整个图像的标签,而是图像碎片的标签,这就在两个方面降低了维度诅咒的影响:
图像碎片的像素比完整图像小得多,这减少了输入维度
训练期间可用的样本数量增加了
生成热图
基于以上实验观察结果,研究人员还提出以热图的形式,来理解cnn的预测行为,由此进一步对模型的错误做出“诊断”。
就像这样:
这些图像来自于stl-10数据集。热图显示,对于cnn而言,飞机图像中最能“刺激”到模型的,不是飞机本身,而是天空。
同样,在汽车图像中,车轮才是cnn用来识别图像的主要属性。
论文地址: https://arxiv.org/abs/2205.10760


高通基于Arm处理器到数据中心的部署或将加快
SMT生产流程中需要注意什么
虚拟币OTC交易系统源码开发,量化自动对冲交易软件开发
传统的电线接法到底是怎样的?
VPLC系列机器视觉运动控制一体机快速入门(六)
CNN根本无需理解图像全局结构,一样也能SOTA?
DC/DC变换器中输出滤波器的比较
突破2Tbps带宽!赛灵思首批Virtex-7 X690T FPGA开始发货
石墨烯电池与锂电池哪个比较好
采用新型IGBT优化软开关应用中的损耗
动力电池如何进行热管理
Maxim推出3通道 RGB激光驱动器MAX3600
5G时代的到来并不会让WiFi退出历史舞台
一文简述3D打印技术
适合女性的运动电子设备汇总及价格参考
超级方便的轻量级Python流水线工具
新媒体编辑APP开发功能
新唐科技N567HP330(OTP)芯片介绍
基于python的用于构建仿真及测试用例的lib库cocotb
详细介绍了加酸壶清洗机自动控制系统的设计思路,方法及实施方案