标签:背景 上进 架构 The fas 兼容 转移 卷积 oca
Read Data:0603 |
Publication: CVPR 2021 |
||
Title: Instance Localization for Self-supervised Detection Pretraining Participants: Ceyuan Yangy, Zhirong Wu, Bolei Zhouy;z Stephen Lin |
|||
Aim: 提出专门用于目标检测的自监督预训练模型。 |
Research Question: (1)需要将预先训练过的网络重新放入目标网络体系结构中进行细化。这通常涉及到非一般的体系结构变化,例如插入特征金字塔或使用大膨胀的卷积核 (2)对于典型的对比学习模型,训练前pretext任务在实例区分中,考虑图像的整体,没有明确的空间建模的区域。虽然它提高了分类的可转移性,但这种实践与空间推理任务(如对象检测)不太兼容。 |
||
Method: 本文提出一个新颖的pretext任务,实例定位,作为实例歧视的扩展。如图3所示,我们通过将前景实例覆盖到背景上来合成图像组合。目的是利用包围框信息区分前景和背景。为了实现这一任务,必须首先对前景实例进行定位,然后提取前景特征。 首先,描述了将包围盒表示引入对比学习框架的方法。 然后,提出了在边界框上进行数据扩展以提高定位能力的一种有效方法。图像增强在对比学习中发挥这重要的作用,gt bounding box可能包含背景上的区域,因此,可以进一步引导表示在空间上忽略背景并获得定位能力。 最后,给出了我们在两个流行的检测骨干R50-C4和R50-FPN上的方法的架构细节。 |
|||
Results: 在PASCAL VOC上,我们的模型使用R50-C4骨架结构的Faster R-CNN检测器,当epoch为200和800时,得到了+0.9和+1.0 AP的改进。 在COCO上,使用Mask R-CNN[24]框架与R50- C4和R50- fpn骨干网络,预训练200个epoch,InsLoc优于直接基线MoCo-v2的R50-C4和R50-FPN骨干+0.7和+1.5 AP。 |
Discussion: |
||
Conclusion: 提出了一种新的实例定位pertext任务,并引入了边界框在自监督表示学习中的应用。预训练模型在整体图像分类方面表现较弱,但在补丁定位方面表现较强。在转移到目标检测时,相对于基线MoCo有了明显的改进,并在VOC和COCO上取得了最先进的结果。我们还表明,当标记数据特别小时,我们的方法获得较大的增益。实验结果表明,通过改进任务对齐,可以提高目标检测的传输性能。 |
Further: |
||
Ref:
|
标签:背景 上进 架构 The fas 兼容 转移 卷积 oca
原文地址:https://www.cnblogs.com/xmy-0904-lfx/p/14844711.html