码迷,mamicode.com
首页 > 其他好文 > 详细

【CVPR2018】PointFusion: Deep Sensor Fusion for 3D Bounding Box Estimation

时间:2020-01-26 13:06:01      阅读:76      评论:0      收藏:0      [点我收藏+]

标签:concat   int   img   方法   $1   final   for   ima   tar   

又一篇3D点云detection的顶会。这篇文章是two stage的方法,非end-to-end。文章的前提是利用faster rcnn得到2D图像的image crop;然后才是本文介绍的PointFusion,即将image crop和对应的3D点云数据作为输入,得到3D box。可以说这篇文章实际2D检测基础上做3D检测。

 

整个模型如图:

技术图片

 

 

  • 输入:2D 图像块(fatser RCNN检测结果);对应的3D点云
  • 模型:
    • 特征提取:
      • 2D图像用预训练的ResNet50提取2048d的特征
      • 用多个PointNet网络(去除BN层)提取1024d的全局特征($1024\times1$)和每个点的64d特征($64\times n$)
    • 特征融合
      • Global Fusion (baseline model)初始版本
        • 将2D的2048d全局特征和3D的1024d全局特征concatenate到一起得到3072d的特征($3072\times1$)
        • 3072d经过一个MLP
        • 输出:3D box 8个角点的x,y,z坐标($1\times8\times3$)
      • Dense Fusion (final model)最终版本
        • 每个点的64d特征+2048d2维特征+1024d三维全局特征concatenate到一起,得到$n\times2126$维特征。
        • 经过MLP之后,两个branch:
          • 输出$n\times2$,即每个点做2分类,判断该点是否在target bounding box中
          • 输出$n\times8\times3$,即每个点分别在x,y,z方向输出偏置(offset),即该点在三个坐标方向上离8个角点的距离

 

【CVPR2018】PointFusion: Deep Sensor Fusion for 3D Bounding Box Estimation

标签:concat   int   img   方法   $1   final   for   ima   tar   

原文地址:https://www.cnblogs.com/xiaoaoran/p/12233994.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!