论文盘点:CVPR 2018 Top 20,华人发明的SENet居首!
最近CV君在盘点近几年三大CV顶会的论文,继CVPR 2019 、ICCV 2019 、ECCV 2018 Top 20 论文后:
论文盘点:ICCV 2019 Top 20,MobileNetV3居首!
本文盘点CVPR 2018 引用数Top 20 的论文,虽然计划是只取前20篇,但实际上是21篇文章,因为最后两篇文章的引用数恰好相同(截止今日,即2020年8月10日)。
特别值得一提的是 CVPR 2018 引用数最高的论文Squeeze-and-excitation networks(SENet),出自国内自动驾驶公司 Momenta,对整个深度学习研究社区影响巨大。
1. 这些论文涵盖的方向:
基础网络结构(SENet、Non-local)、
轻量级网络结构(MobileNetv2、ShuffleNet)、
神经架构搜索(NASNet)、
图像描述、
GAN(图像转化、图像合成编辑)、
感知相似度量、
超分辨率、
少样本学习、
点云3D目标检测(Voxelnet)、
2D目标检测(Cascade R-CNN)、
RGB-D 3D目标检测、
场景理解多任务学习、
CNN研究(深度图像先验)、
光流(PWC-Net)、
图像修复、
对抗学习、
ReID、
人脸识别(CosFace)。
2. 从以上CVPR 2018 热文中可以看出,网络结构设计(人工设计+机器搜索网络架构)的文章很多,SENet、Non-local、MobileNetv2、ShuffleNet、NASNet 这些工作都对后来的研究有重大影响,相比于之前我们盘点的 CVPR 2019 、ICCV 2019 、ECCV 2018, (CV君认为)CVPR 2018 可能是最为精彩的。
3. 目标检测算法 Cascade R-CNN 到今天依然是COCO数据集上精度最高的算法之一,而且在众多CV算法大赛中折冠。
4. 论文引用是有时间累计效应的,时间越长,引用次数越高,相比于在同一年召开的ECCV 2018 ,CVPR 2018 Top 20 的论文引用量远高于前者,CVPR 在计算机视觉研究社区的影响力更大!
No. 1 SENet
Squeeze-and-excitation networks
作者 | Jie Hu, Li Shen, Gang Sun
单位 | Momenta;牛津大学
论文 | https://arxiv.org/abs/1709.01507
解读 | https://zhuanlan.zhihu.com/p/32702350
代码 | https://github.com/hujie-frank/SENet
引用次数 | 3651
SENet 对特征通道间的相关性进行建模,把重要的特征进行强化来提升准确率。是2017 ILSVR竞赛的冠军模型,ImageNet Top-5的错误率2.251%,比2016年的第一名还要低25%,精度提升巨大。
No. 2 Mobilenetv2
Mobilenetv2: Inverted residuals and linear bottlenecks
作者 | Mark Sandler, Andrew Howard, Menglong Zhu, Andrey Zhmoginov, Liang-Chieh Chen
单位 | 谷歌
论文 | https://arxiv.org/abs/1801.04381
引用次数 | 2384
No. 3 神经架构搜索 NASNet
Learning transferable architectures for scalable image recognition
作者 | Barret Zoph, Vijay Vasudevan, Jonathon Shlens, Quoc V. Le
单位 | Google Brain
论文 | https://arxiv.org/abs/1707.07012
引用次数 | 1716
No. 4 Shufflenet
Shufflenet: An extremely efficient convolutional neural network for mobile devices
作者 | Xiangyu Zhang, Xinyu Zhou, Mengxiao Lin, Jian Sun
单位 | 旷视
论文 | https://arxiv.org/abs/1707.01083
代码 | https://github.com/megvii-model/ShuffleNet-Series
引用次数 | 1512
No. 5 Non-local 神经网络
Non-local neural networks
作者 | Xiaolong Wang, Ross Girshick, Abhinav Gupta, Kaiming He
单位 | 卡内基梅隆大学;FAIR
论文 | https://arxiv.org/abs/1711.07971
代码 | https://github.com/facebookresearch/
video-nonlocal-net
引用次数 | 1509
No. 6 图像描述与VQA
Bottom-up and top-down attention for image captioning and visual question answering
作者 | Peter Anderson, Xiaodong He, Chris Buehler, Damien Teney, Mark Johnson, Stephen Gould, Lei Zhang
单位 | 澳大利亚国立大学;京东;微软;阿德莱德大学;麦考瑞大学
论文 | https://arxiv.org/abs/1707.07998
备注 | CVPR 2018 full oral
引用次数 | 1177
No. 7 Stargan
Stargan: Unified generative adversarial networks for multi-domain image-to-image translation
用于多域图像到图像的转化
作者 | Yunjey Choi, Minje Choi, Munyoung Kim, Jung-Woo Ha, Sunghun Kim, Jaegul Choo
单位 | 高丽大学;NAVER Corp;罗格斯大学;香港科技大學
论文 | https://arxiv.org/abs/1711.09020
代码 | https://github.com/yunjey/stargan
备注 | CVPR 2018 Oral
引用次数 | 1040
No. 8 Pix2PixHD
High-resolution image synthesis and semantic manipulation with conditional gans
条件GAN进行高分辨率图像合成和语义操作
作者 | Ting-Chun Wang, Ming-Yu Liu, Jun-Yan Zhu, Andrew Tao, Jan Kautz, Bryan Catanzaro
单位 | 英伟达;UC伯克利
论文 | https://arxiv.org/abs/1711.11585
代码 | https://github.com/NVIDIA/pix2pixHD
主页 | https://tcwang0509.github.io/pix2pixHD/
引用次数 | 1035
No. 9 感知相似性度量
The unreasonable effectiveness of deep features as a perceptual metric
作者 | Richard Zhang, Phillip Isola, Alexei A. Efros, Eli Shechtman, Oliver Wang
单位 | UC伯克利;OpenAI;Adobe Research
论文 | https://arxiv.org/abs/1801.03924
代码 | https://github.com/richzhang/
PerceptualSimilarity
引用次数 | 737
No. 10 RDN 图像超分辨率
Residual dense network for image super-resolution
作者 | Yulun Zhang, Yapeng Tian, Yu Kong, Bineng Zhong, Yun Fu
单位 | (美国)东北大学;罗切斯特大学;
论文 | https://arxiv.org/abs/1802.08797
代码 | https://github.com/yulunzhang/RDN
备注 | CVPR 2018 spotlight
引用次数 | 705
No. 11少样本学习
Learning to compare: Relation network for few-shot learning
作者 | Flood Sung, Yongxin Yang, Li Zhang, Tao Xiang, Philip H.S. Torr, Timothy M. Hospedales
单位 | 伦敦玛丽女王大学;牛津大学;爱丁堡大学
论文 | https://arxiv.org/abs/1711.06025
代码 | https://github.com/floodsung/
LearningToCompare_FSL
引用次数 | 702
No. 12 Voxelnet 点云3D目标检测
Voxelnet: End-to-end learning for point cloud based 3d object detection
基于点云的3D目标检测的端到端学习
作者 | Yin Zhou, Oncel Tuzel
单位 | Apple Inc
论文 | https://arxiv.org/abs/1711.06396
代码 | https://github.com/reinforcementdriving/
VoxelNet_CVPR_2018_PointCloud(非官方)
解读 | https://zhuanlan.zhihu.com/p/40051716
引用次数 | 664
No. 13 Cascade r-cnn 目标检测
Cascade r-cnn: Delving into high quality object detection
作者 | Zhaowei Cai, Nuno Vasconcelos
单位 | 加利福尼亚大学圣迭戈分校
论文 | https://arxiv.org/abs/1712.00726
代码 | https://github.com/zhaoweicai/cascade-rcnn
解读 | https://zhuanlan.zhihu.com/p/35882192
https://zhuanlan.zhihu.com/p/36095768
引用次数 | 604
No. 14 RGB-D 3D目标检测
Frustum pointnets for 3d object detection from RGB-D data
从RGB-D数据中检测3D目标的Frustum点阵网
作者 | Charles R. Qi, Wei Liu, Chenxia Wu, Hao Su, Leonidas J. Guibas
单位 | 斯坦福大学;Nuro, Inc;加利福尼亚大学圣迭戈分校
论文 | https://arxiv.org/abs/1711.08488
代码 | https://github.com/charlesq34/frustum-pointnets
解读 | https://zhuanlan.zhihu.com/p/41634956
引用次数 | 589
No. 15 多任务学习、场景理解
Multi-task learning using uncertainty to weigh losses for scene geometry and semantics
作者 | Alex Kendall, Yarin Gal, Roberto Cipolla
单位 | 剑桥大学;牛津大学
论文 | https://arxiv.org/abs/1705.07115
代码 | https://github.com/ranandalon/mtl(非官方)
引用次数 | 575
No. 16 深度图像先验
Deep image prior
作者 | Dmitry Ulyanov, Andrea Vedaldi, Victor Lempitsky
单位 | (俄罗斯)Skolkovo 科学技术研究院;牛津大学
论文 | https://arxiv.org/abs/1711.10925
代码 | https://github.com/DmitryUlyanov/deep-image-prior
主页 | https://dmitryulyanov.github.io/
deep_image_prior
引用次数 | 552
这是一篇神奇的文章,它表明CNN天然理解图像应该是什么样子的。
No. 17 光流
Pwc-net: Cnns for optical flow using pyramid, warping, and cost volume
作者 | Deqing Sun, Xiaodong Yang, Ming-Yu Liu, Jan Kautz
单位 | 英伟达
论文 | https://arxiv.org/abs/1709.02371
代码 | https://github.com/NVlabs/PWC-Net
解读 | https://www.52cv.net/?p=414
备注 | CVPR 2018 Oral
引用次数 | 527
No. 18 图像修复
Generative image inpainting with contextual attention
作者 | Jiahui Yu, Zhe Lin, Jimei Yang, Xiaohui Shen, Xin Lu, Thomas S. Huang
单位 | 伊利诺伊大学厄巴纳-香槟分校;Adobe Research
论文 | https://arxiv.org/abs/1801.07892
代码 | https://github.com/JiahuiYu/generative
_inpainting
主页 | http://jiahuiyu.com/deepfill/
引用次数 | 522
No. 19 对抗学习
Robust Physical-World Attacks on Deep Learning Models
作者 | Kevin Eykholt, Ivan Evtimov, Earlence Fernandes, Bo Li, Amir Rahmati, Chaowei Xiao, Atul Prakash, Tadayoshi Kohno, Dawn Song
单位 | 密歇根大学;华盛顿大学;伯克利;三星美国研究院和石溪大学
论文 | https://arxiv.org/abs/1707.08945
代码 | https://github.com/evtimovi/robust_
physical_perturbations
引用次数 | 511
No. 20 人员重识别
Harmonious attention network for person re-identification
作者 | Wei Li, Xiatian Zhu, Shaogang Gong
单位 | 伦敦玛丽女王大学;Vision Semantics Ltd
论文 | https://arxiv.org/abs/1802.08122
引用次数 | 485
No. 20(并列)人脸识别 CosFace
Cosface: Large margin cosine loss for deep face recognition
作者 | Hao Wang, Yitong Wang, Zheng Zhou, Xing Ji, Dihong Gong, Jingchao Zhou, Zhifeng Li, Wei Liu
单位 | 腾讯AI Lab
论文 | https://arxiv.org/abs/1801.09414
引用次数 | 485
END
备注:CV
计算机视觉交流群
计算机视觉等最新资讯,若已为CV君其他账号好友请直接私信。
我爱计算机视觉
微信号:aicvml
QQ群:805388940
微博知乎:@我爱计算机视觉
网站:www.52cv.net
在看,让更多人看到