码迷,mamicode.com
首页 > Web开发 > 详细

论文阅读(BaiXiang——【CVPR2016】Multi-Oriented Text Detection with Fully Convolutional Networks)

时间:2016-11-25 23:33:36      阅读:671      评论:0      收藏:0      [点我收藏+]

标签:input   ons   包含   区分   font   figure   直线   面积   示例   

 

BaiXiang——【CVPR2016】Multi-Oriented Text Detection with Fully Convolutional Networks

 


 

目录

  • 作者和相关链接
  • 方法概括
  • 方法细节
  • 创新点和贡献
  • 实验结果
  • 问题讨论
  • 总结与收获点

 


 

  • 作者和相关链接

技术分享

 

  • 方法概括

    • Step 1——文本块检测: 先利用text-block FCN得到salient map,再对salient map进行连通分量分析得到text block;
    • Step 2——文本线形成: 对text-block利用MSER提取候选字符区域,利用候选字符区域估计整个block的方向,再结合候选字符的bounding box生成每个每条文本行;
    • Step 3——文本线过滤: 利用centroid FCN得到每条文本行中的字符的质心,利用质心过滤非文本行;

   以下为细化的每个步骤示例图:

技术分享技术分享

 Figure 1. The procedure of the proposed method. (a) An input image; (b) The salient map of the text regions predicted by the TextBlock FCN; (c) Text block generation; (d) Candidate character component extraction; (e) Orientation estimation by component projection; (f) Text line candidates extraction; (g) The detection results of the proposed method.

  • 方法细节

    • text blcok 检测

      • Text-block FCN的网络结构

   选用VGG16的前5层卷积层,去掉后面的全连接层。在每个卷积层后都接上一个deconv操作(由1*1的卷积+上采样构成)。再把5个deconv得到的maps用1*1的卷积进行 fusion,并经 过一个sigmoid层得到salient map。

  技术分享

 

      • Text-block FCN生成salient map的示例图

                       从第1层到第5层的细节越来越少,global的信息越来越强。

技术分享

      • 普通方法得到的的salient map和由text-block FCN得到的salient map对比

技术分享

      • text block FCN用到的训练图

技术分享

 

    • 文本线生成

      • MSER提取字符候选区域
        1. 在每个text block里进行MSER提取(不要求MSER把所有字符都提取出来,允许漏检和存在噪声);
        2. 利用候选区域的面积、长宽比过滤大部分噪声(仅在text block里提取,噪声不多,比较单一);
      • projection方法估计直线方向
        1. 在text block里找到最优的h和θ(可以确定一条直线),使得该直线穿过的component个数最多;
        2. 本方法的假设条件:第一,同一block中,所有文本线的方向一致;第二,文本线是近直线的;

技术分享

 

      • 候选文本线生成
        1. 对每个block里的所有component进行聚类,聚类条件如下:
          • 技术分享

             

        2.  每个grouping生成bounding box
          • 沿着block(记为α)的方向θr(α)的方向画一条直线l,该直线经过这个grouping中的所有component的中心(所有component中心中随便取一个或者取中间那个?);
          • 将直线l与α的边缘点的交点集合记为P(α是图(b)中的所有白色点的集合),即如下图中的最左边和最右边的两个红点。
            • 技术分享

               

            • 技术分享

               

          • 利用点集P和每个componet的bounding box生成整条文本线的bounding box(求并集)
            • 技术分享

               

            • 技术分享
  • 文本线噪声过滤

    • character-centroid FCN获得每条文本线中的所有可能存在的字符的质心
      • 模型结构:从text-block FCN的5层卷积→3层卷积(text-block FCN的缩小版)
      • 训练样本:距离字符中心(ground Truth中的字符中心?)距离小于字符高度的15%的点都算作正样本点,其他点算作负样本点、
      • 技术分享
      • 技术分享
    • 非文本线噪声过滤
      • 质心概率的均值过滤
        • 技术分享
      • 几何角度过滤(近直线)
        • 技术分享

 

  • 创新点和贡献

    • 贡献
      1. 用FCN生成文字/非文字的salient map;
      2. 利用局部(Component based )和全局(context of the text block ) 的信息生成文本线;
      3. 用FCN得到字符的质心;
    • idea的出发点
      1. FCN既然可以作像素级的标定,那么可以用来得到每个像素属于文字的概率(salient map),也可以用来得到每个像素是字符质心的概率(centroid map );
      2. 单个字符容易受背景干扰,容易造成漏检或者误检,而文本块相对于字符不但区分性更强(更容易与背景区分开),而且更稳定(一般比较完整)。因此,如果能把单个字符的信息(局部,细节)与上下文信息(文本线)结合起来,就能使检测更加鲁棒;

 

  • 实验结果

    • MSRA-TD500
      • 技术分享
    • ICDAR2015
      • 技术分享
    • ICDAR2013
      • 技术分享
    • 示例图
      • 技术分享
    • 失败的图
      • 技术分享

 

 

  • 问题讨论

    • 为什么FCN可以用来做文字?有什么好处?
      • FCN可以融合局部(字符)和全局信息(文本线);
      • FCN是端到端训练;
      • FCN由于去掉了全连接层后在像素级的标定很快,而且文字本身也容易获得像素级标定的训练数据;
    • 为什么这篇文章的方法可以解决多方向的文字检测问题?
      • 文章中决定文字方向的方法是text block(记为α)上利用MSER检测候选字符,再在整个block上找到一条直线θr(α),使得经过的候选字符个数最多。由于直线θr(α)的两个参数h和θ都没有约束限制,因此可以检测任意方向的文字;

技术分享

    • deconv中1*1的卷积作用是什么?
      • 1*1的卷积得到的map大小和原图是一样的,所以作用一般有三个。一是为了把多通道的信息融合起来;二是为了升维或降维(把上一层的channel数变多或者变少);三是有时候1*1的卷积是在做pixel-wise的prediction。
    • deconv中上采样的作用是是什么?
      • 因为每一层卷积得到的map大小是不同的,而且和原图相比都更小,在fusion的时候要得到和原图相同大小的map所以要进行上采样。这个上采样的核(参数)在FCN中是可以学习的,初始化的时候可以选择用双线性插值;
    •  得到的text block为什么不能直接看成是文本线,为什么还要单独一步专门做文本线生成?
      • 第一,当多条文本线靠得比较近时,容易被一个block包含;第二,text block得到的区域范围太粗糙,并没有准确的文本位置;
    • 文本线方向估计的这个projection的算法实际是如何操作的?(遍历h和θ?)
    • 在文本线过滤中得到的质心图是一个概率图,如下图所示,是一团白色区域,而不是唯一的一个点,每个字符最终是由一个质心表示么?如何确定这个唯一的质心?(使用类似于meanshift,nms找到极值点?)

 技术分享

 

 

  • 总结与收获点

    • 把text block(global)和character(local)的特点综合起来,这个想法非常好,要把Faster RCNN与component的方法结合起来可以参考这篇文章的一些思想。
    • 这是第一个用FCN来做文字的文章,虽然准确率高,但是pixel wise还是比较慢的。文字和其他目标检测不大一样,太细了。需要找其他方法来检测text block。

 

论文阅读(BaiXiang——【CVPR2016】Multi-Oriented Text Detection with Fully Convolutional Networks)

标签:input   ons   包含   区分   font   figure   直线   面积   示例   

原文地址:http://www.cnblogs.com/lillylin/p/6102708.html

(0)
(1)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!