五篇值得阅读的eccv2020图像识别相关论文

panchuangai panchuangai     2022-12-11     614

关键词:

今天为大家介绍五篇值得阅读的ECCV 2020 oral【图像识别】相关论文。ECCV与CVPR、ICCV并称为计算机视觉领域三大顶会。ECCV 2020共有5025篇投稿,其中1361篇被接受,接受率为27%。

ECCV 2020接受论文列表地址:

https://eccv2020.eu/accepted-papers/

第1篇:自适应学习网络宽度与输入分辨率

论文题目:《MutualNet: Adaptive ConvNet via Mutual Learning from Network Width and Resolution》

下载地址: https://arxiv.org/abs/1909.12978

github:https://github.com/taoyang1122/MutualNet

介绍:深度神经网络已经在各种感知任务取得了巨大的胜利。然而,深度神经网络通常需要大量的计算资源,这使得它们很难部署在移动设备和嵌入式系统上。本文对此所做的贡献是:

  1. 强调输入分辨率对于设计高效网络的重要性。以往的研究要么忽略它,要么把它从网络结构中分离出来。相比之下,本文将网络宽度和输入分辨率嵌入到一个统一的相互学习框架中来学习一个深度神经网络(MutualNet),它可以在运行时实现自适应的精度和效率的权衡。

  2. 进行了大量的实验,以证明MutualNet的性能明显优于独立训练的网络。

  3. 我们进行全面的消融研究,以分析提议的相互学习方案。我们进一步证明,我们的框架有望作为即插即用策略来提高单个网络的性能,其性能大大超过了流行的性能提升方法,例如,数据扩充,SENet和知识蒸馏。

  4. 建议的架构是一个通用的训练计划,与模型无关。它可以应用于任何网络,而无需对结构进行任何调整。这使得它与其他最先进的技术兼容。例如,神经结构搜索(NAS),自动数据增强技术。

本文提出了一种在动态资源约束(如每秒浮点运算次数)下训练网络的方法,该方法提出了一个输入分辨率和网络宽度的互学习方案,在运行时实现自适应精度-效率权衡的约束,在图像分类、目标检测和实例分割等各种任务上,显著提高了轻量网络的精度和效率的权衡。在COCO目标检测、实例分割和迁移学习等方面也验证了该方法的优越性。令人惊讶的是,MutualNet的训练策略还可以提高单个网络的性能,在效率(GPU搜索小时数:15000 vs 0)和准确性(ImageNet:77.6% vs 78.6%)方面都大大优于强大的自动数据增强技术。

该互学习方案也被证明是提高单网络性能的有效训练策略。该框架的通用性使其能够很好地转换为通用的问题域,还可以扩展到视频输入和3D神经网络,其空间和时间信息都可以得到利用。

技术图片

总体框架如下所示:

技术图片

第2篇:基于随机特征采样和插值的空间自适应推理

论文题目:《Spatially Adaptive Inference with Stochastic Feature Sampling and Interpolation》

下载地址: https://arxiv.org/pdf/2003.08866.pdf

github: 暂未发现(欢迎留言补充)

介绍:在卷积神经网络(CNN)的特征映射中,普遍存在大量的空间冗余、重复处理。为了减少这种多余的计算,本文提出了一种减少卷积网络计算量的方法:只计算稀疏采样位置的特征,这些位置是根据激活响应概率选择的,然后使用有效的插值过程对特征图进行密集重构。

利用特征映射中固有的稀疏性和空间冗余性,我们避免了在可有效插值的空间位置进行昂贵的计算。

技术图片

框架图:

技术图片

第3篇:开放集识别的混合模型

论文题目:《Hybrid Models for Open Set Recognition》

下载地址: https://arxiv.org/abs/2003.12506

github:暂未发现(欢迎留言补充)

介绍:开放集识别需要一个分类器来检测不属于其训练集中任何类的样本,现有的方法对训练样本的嵌入空间上拟合一个概率分布,并根据这个分布来检测离群点。然而,这种分类只关注已知的类,对于区分未知的类可能没有什么效果。本文认为,表示空间应该由内层分类器和密度估计器(作为离群点检测器)共同学习。为此,提出了OpenHybrid框架,该框架由一个编码器将输入数据编码到一个联合嵌入空间,一个分类器将样本分类到一个内部类,以及一个基于流的密度估计器来检测样本是否属于未知类别。大量的实验表明我们的方法达到了最先进的水平。基于流的模型的一个常见问题是,它们通常为分布外的样本分配更大的可能性。通过学习一个联合特征空间,以及在不同的数据集上进行观察,这个问题得到了解决。研究还表明,联合训练是促进开放集的识别性能的另一个关键因素。

技术图片

框架图:

技术图片

第4篇:梯度集中(GC):一种新的深层神经网络优化技术

论文题目:《Gradient Centralization: A New Optimization Technique for Deep Neural Networks》

下载地址: https://arxiv.org/abs/2004.01461

github: https://github.com/Yonghongwei/Gradient-Centralization

介绍:优化技术对于有效地训练深度神经网络(DNN)具有重要意义。与现有的基于激活度或权值的优化方法不同,本文提出了一种新的优化技术,即梯度集中(gradient centralization,GC),它通过将梯度向量集中到零均值的方式,直接对梯度进行操作。通过综合实验表明,GC可以对权值空间和输出特征空间进行规整,可以很好地应用于不同优化器和网络架构下的不同任务,提高了训练效率和泛化性能。

技术图片

框架图:技术图片

第5篇:多任务学习增强对抗鲁棒性

论文题目:《Multi-task Learning Increases Adversarial Robustness》

下载地址:https://arxiv.org/pdf/2007.07236.pdf

github:暂未发现(欢迎留言补充)

介绍:虽然深度网络在一系列计算机视觉基准上达到了很强的精确度,但它们仍然容易受到对手的攻击,一些无法察觉的干扰数据欺骗了网络。本文提供了理论和实证分析,将一个模型的对抗鲁棒性与它所训练的任务数量联系起来。在两个数据集上的实验表明,攻击模型的难度随着目标任务数量的增加而增加。此外,我们的结果表明,当模型在同时进行多任务训练时,它们在单个任务的对抗攻击中会变得更稳健。也就是说,训练任务数量低的情况下,模型更容易受到对手的攻击。我们的工作是第一次将这种脆弱性与多任务学习联系起来,并暗示了一个新的研究方向,以理解和减轻这种脆弱性。

技术图片

欢迎关注磐创AI博客站:
http://panchuang.net/

sklearn机器学习中文官方文档:
http://sklearn123.com/

欢迎关注磐创博客资源汇总站:
http://docs.panchuang.net/




每周cv论文推荐基于gan的图像修复值得阅读的文章

...了非常大的进展,本次我们来简单给大家推荐一些初学者值得关注的工作。作者&编辑|言有三1 基本模型由于 查看详情

论文速递eccv2022-密集高斯过程的小样本语义分割

...项具有挑战性的密集预测任务,它需要分割一个新的查询图像,只给予一个小的注释支 查看详情

论文阅读-(eccv2018)second-orderdemocraticaggregation

本文是Tsung-YuLin大神所作(B-CNN一作),主要是探究了一种无序的池化方法(gamma)-democraticaggregators,可以最小化干扰信息或者对二阶特征的内容均等化。从另一个workline,对特征聚合后,作matrixpowernormalization(AbbreviatedasMPN)可以有效... 查看详情

论文阅读:practicaldeeprawimagedenoisingonmobiledevices

论文阅读:PracticalDeepRawImageDenoisingonMobileDevices旷视2020ECCV基于深度学习的降噪方法在近几年得到了大量的研究,这些方法的效果也霸榜了很多公开的数据集。不过这些方法用到的网络模型都很大,无法在手机端侧运行... 查看详情

论文阅读:practicaldeeprawimagedenoisingonmobiledevices

论文阅读:PracticalDeepRawImageDenoisingonMobileDevices旷视2020ECCV基于深度学习的降噪方法在近几年得到了大量的研究,这些方法的效果也霸榜了很多公开的数据集。不过这些方法用到的网络模型都很大,无法在手机端侧运行... 查看详情

eccv2020五项大奖出炉!普林斯顿邓嘉获最佳论文奖

ECCV2020五项大奖出炉!普林斯顿邓嘉获最佳论文奖看了上面的文章内容,觉得里面的人真的是厉害啊。今日,ECCV2020五项大奖出炉,分别是最佳论文奖、最佳论文提名奖、Koenderink奖、MarkEveringham奖、Demo奖。在每年... 查看详情

eccv2020五项大奖出炉!普林斯顿邓嘉获最佳论文奖

ECCV2020五项大奖出炉!普林斯顿邓嘉获最佳论文奖看了上面的文章内容,觉得里面的人真的是厉害啊。今日,ECCV2020五项大奖出炉,分别是最佳论文奖、最佳论文提名奖、Koenderink奖、MarkEveringham奖、Demo奖。在每年... 查看详情

大规模食品图像识别:t-pami2023论文解读

...模数据集Food2K,并提出渐进式区域增强网络用于食品图像识别,相关研究成果已发表于T-PAMI2023。本文主要介绍了数据集特点、方法设计、性能对比,以及基于该数据集的迁移实验等方面的内容,并对Food2K未来的工... 查看详情

目标检测方法——ssd

SSD论文阅读(WeiLiu——【ECCV2016】SSDSingleShotMultiBoxDetector) 目录作者文章的选择原因方法概括方法细节相关背景补充实验结果与相关文章的对比总结  作者文章的选择原因性能好,singlestage方法概括文章的方法介绍SSD主... 查看详情

eccv2022|计算机视觉中的长尾分布问题还值得做吗(代码片段)

...期间研究的主要问题上,看看2022年了这个方向是否还值得继续做下去。本文主要介绍我们今年被ECCV2022接受的论文《InvariantFeatureLearningforGeneralizedLong-TailedClassification》论文链接:https://arxiv.org/abs/2207.09504代码链接:http... 查看详情

cvpr2020|图像重建(超分辨率,图像恢复,去雨,去雾,去模糊,去噪等)相关论文汇总(附论文链接/开源代码/解析)

CVPR2020|图像重建(超分辨率,图像恢复,去雨,去雾,去模糊,去噪等)相关论文汇总(附论文链接/开源代码/解析)【持续更新】 转载自https://www.cnblogs.com/Kobaayyy/p/13163056.html目录1.超分辨率图像超... 查看详情

论文阅读:nerfrepresentingscenesasneuralradiancefieldsforviewsynthesis

论文阅读–NeRFRepresentingScenesasNeuralRadianceFieldsforViewSynthesis这是2020ECCV的一篇文章,记得好像还获得了最佳论文奖的提名,这篇文章相当于将自由视点生成这个方向开辟出了一个新的解决思路。文章的作者们提出了一种可以... 查看详情

带你读论文丨基于视觉匹配的自适应文本识别

摘要:ECCV2020通过视觉匹配的方法来做文本识别,解决文档识别中的文本识别多样性和泛化性问题本文分享自华为云社区《论文解读二十三:基于视觉匹配的自适应文本识别》,作者:wooheng。引言本文工作目... 查看详情

cvpr2020论文阅读笔记(三维点云/三维重建)

...和CMLP中都应用了这种思想,最后的效果也非常不错,很值得借鉴。论文地址:https://arxiv.org/abs/1612.00593PointNet提出一种基础的网络结构,可以用于点云分类、部分分割和语义分割等多种任务。在这篇文章之前,点云数据的处理方... 查看详情

cvpr2021论文合集下载论文分类汇总

...amp;&PPT(持续更新中,敬请关注)分类目录:检测图像目标检测(ImageObjectDetection)视频目标检测(VideoObjectDetection)三维目标检测(3DObjectDetection)动作检测(ActivityDetection)异常检测(AnomallyDetetion)图像分割(ImageSegmentation)全景分割(Pan... 查看详情

论文速递eccv2022-开销聚合与四维卷积swintransformer_小样本分割

...主关键词:小样本学习,语义分割,Transformer,聚合推荐相关 查看详情

detectionofrailsurfacedefectsbasedoncnnimagerecognitionandclassification-论文阅读笔记

...别和分类的钢轨表面缺陷检测//2022.7.21下午12:37开始阅读笔记论文速览本文提出了一个两阶段的钢轨表面缺陷检测框架,但是不是实时进行检测的。在第一阶段,作者首先对轨道图像进行预处理 查看详情

eccv2022|开源:基于可分离级联查找表的实时图像增强方法

...里巴巴大淘宝音视频算法与基础技术团队和上海交通大学图像所合作论文《SepLUT:SeparableLookupTablesforReal-timeImageEnhancement》被国际顶级会议ECCV2022接收,全部代码及模型均已开源。ECCV全称为EuropeanConferenceonComputerVision,即欧... 查看详情