整理一下CVPR2019目标检测的一些文章解读,目前比较忙,没时间细看

CVPR2019论文及code汇总

https://github.com/extreme-assistant/cvpr2019
<https://github.com/extreme-assistant/cvpr2019>

1、《Bounding Box Regression with Uncertainty for Accurate Object Detection》

对目标检测中不确定性边界框问题,在这篇论文中提出了一中新的边界框回归损失算法,提高了各种检测体系的目标定位精度。

论文摘要:

诸如 MS-COCO
在内大规模目标检测数据集,都旨在尽可能清楚地定义目标真实的边界框标注。然而,事实上在标注边界框时经常会产生歧义。因此,为了解决这个问题,本文提出了一种新的边界框回归损失
(bounding box regression loss)
算法,用于学习边界框变换和局部方差。这种损失算法提高了各种检测体系的目标定位精度,且几乎不需要额外的计算成本。此外,该算法的另一大优势在于它能够学习目标的定位方差,这允许模型在非最大抑制
(NMS) 计算阶段合并相邻的边界框,以便进一步改善了定位的性能。在 MS-COCO 数据集上,该损失算法能够将 Faster R-CNN (VGG-16)
的平均精度 AP 从23.6%提高到29.1%。更重要的是,对于 Mask R-CNN (ResNet-50-FPN),该算法将 AP 和 AP 90
分别提高了1.8%和6.2%,这明显优于当前最先进的边界框细化 (bounding box refinement) 方法。

2.《ScratchDet: Exploring to Train Single-Shot Object Detectors from Scratch》

CVPR 2019 | 京东AI研究院提出 ScratchDet:随机初始化训练SSD目标检测器
<https://mp.weixin.qq.com/s/_WCVvM6sPpsWD8NS8etEKA>

目标检测算法ScratchDet的深入思考 <https://mp.weixin.qq.com/s/4nTIiivx-KTj6QMrGl18iw>

3. 《Region Proposal by Guided Anchoring》

CVPR2019 | Guided Anchoring: 物体检测器也能自己学 Anchor
<https://mp.weixin.qq.com/s?__biz=MzI5MDUyMDIxNA==&mid=2247487300&idx=1&sn=3b5f6386f9a31acf48f377cf23e6af6f&chksm=ec1fe2bddb686bab3b569768ff2b5bec60f10606352b72b861bbb0d616f61f15a91996b90fb0&token=65056564&lang=zh_CN&scene=21#wechat_redirect>

物体检测领域论文"Region Proposal by Guided Anchoring"解读,这篇 paper 的方法用在了 COCO Challenge
2018 检测任务的冠军方法中,在极高的 baseline 上涨了1个点。

4.《Generalized Intersection over Union》

CVPR2019 | 目标检测新文:Generalized Intersection over Union
<https://mp.weixin.qq.com/s?__biz=MzI5MDUyMDIxNA==&mid=2247487503&idx=1&sn=e98437efda298a9d8fe1a386c5a96601&chksm=ec1ffdf6db6874e03e1e05d438ebd0d295364d01ca8b2741bdad8ffa5d328032ad24ae76a289&token=65056564&lang=zh_CN&scene=21#wechat_redirect>

CVPR2019 | 斯坦福学者提出GIoU,目标检测任务的新Loss
<https://mp.weixin.qq.com/s/VNPX5BADo4EJkIp1yWGoag>


本文提出用IoU这个直接的指标来指导回归任务的学习,用直接指标IoU作为损失函数的缺陷性,提出新的metric来代替L1、L2损失函数,从而提升regression效果

5.《Feature Selective Anchor-Free Module for Single-Shot Object Detection》

CVPR2019 | FSAF:来自CMU的Single-Shot目标检测算法
<https://mp.weixin.qq.com/s?__biz=MzI5MDUyMDIxNA==&mid=2247487638&idx=2&sn=1e9f26013b3d9ab4fd4137729894606a&chksm=ec1ffd6fdb687479183be59ec102f28bff4a5521903707fef744449e7630252c5298b66f339b&token=815081813&lang=zh_CN&scene=21#wechat_redirect>

本文介绍了来自CMU的CVPR2019论文,提出了一个非常优秀的Single-Shot目标检测算法:FSAF。

6.《Towards Accurate One-Stage Object Detection with AP-Loss》

利用AP损失函数实现精确的一阶目标检测

一阶的目标检测器通常是通过同时优化分类损失函数和定位损失函数来训练。而由于存在大量的锚框,分类损失函数的效果会严重受限于前景-背景类的不平衡。

本文通过提出一种新的训练框架来解决这个问题。我们使用排序任务替换一阶目标检测器中的分类任务,并使用排序问题的中的评价指标AP来作为损失函数。


由于其非连续和非凸,AP损失函数不能直接通过梯度下降优化。为此,我们提出了一种新颖的优化算法,它将感知机学习中的误差驱动更新方案和深度网络中的反向传播算法结合在一起。我们从理论上和经验上验证了提出的算法的良好收敛性。

实验结果表明,在不改变网络架构的情况下,在各种数据集和现有最出色的一阶目标检测器上,AP损失函数的性能相比不同类别的分类损失函数有着显著提高。

Add

1. 《RePr: Improved Training of Convolutional Filters》

CVPR2019 | 专门为卷积神经网络设计的训练方法:RePr
<https://mp.weixin.qq.com/s?__biz=MzI5MDUyMDIxNA==&mid=2247487556&idx=2&sn=34b41d2500564348c3b63c6ee71d8c28&chksm=ec1ffdbddb6874abbf4c02658126d031457702fc43165bc3ff1c58a32000260ba6bbc7fe8afb&token=65056564&lang=zh_CN&scene=21#wechat_redirect>

本文提出了一种针对卷积神经网络的训练方法RePr,非常简单有效,在cifar、ImageNet、VQA、object
detection上涨点很多,ablation study做的非常充分。

 

友情链接
ioDraw流程图
API参考文档
OK工具箱
云服务器优惠
阿里云优惠券
腾讯云优惠券
华为云优惠券
站点信息
问题反馈
邮箱:ixiaoyang8@qq.com
QQ群:637538335
关注微信