码迷,mamicode.com
首页 > 数据库 > 详细

目标检测lmdb数据格式制作

时间:2018-01-07 00:40:48      阅读:3016      评论:0      收藏:0      [点我收藏+]

标签:action   UI   dir   分享   测试   ready   random   文件内容   hid   

一、任务

       现在用caffe做目标检测一般需要lmdb格式的数据,而目标检测的数据和目标分类的lmdb格式的制作难度不同。就目标检测来说,例如准备SSD需要的数据,一般需要以下几步:

       1.准备图片并标注groundtruth

       2.将图像和txt格式的gt转为VOC格式数据

       3.将VOC格式数据转为lmdb格式数据

      本文的重点在第2、3步,第一步标注任务用小代码实现即可。网络上大家制作数据格式一般是仿VOC0712的,建立各种目录,很麻烦还容易出错,现我整理了一下代码,只要两个代码,就可以从图片+txt格式gt的数据转化为lmdb格式,不需要额外的文件夹,换其他数据库也改动非常少,特别方便。

二、准备工作

       本文基于已经标注好的数据,以ICDAR2013库为例,起始数据格式如下:

      图片目录:ICDAR2013\img\test\*.jpg和ICDAR2013\img\train\*.jpg

      gt目录:ICDAR2013\img\test\gt_*.txt和ICDAR2013\img\train\gt_*.txt

      gt的格式为:

技术分享图片

三、转VOC格式

      1.建立如下目录:Annotations、ImageSets、JPEGImages、label

       其中Annotations里面建空文件夹test和train,用来存放转换好的gt的xml形式。当然,可以只建单个,比如只要制作train的数据那就只要建立train文件夹就好了。

            ImageSets里面建空文件夹Main,里面存放train.txt和test.txt,txt内容是图片的名字,不带.jpg的名字,初始是空的,是通过代码生成的。

           JPEGImages里面建文件夹train和test,并把训练和测试集图片对应扔进去。

           里面建文件夹train和test,并把训练和测试集的groundtruth的txt文件对应扔进去。

       现在格式如下:

技术分享图片技术分享图片技术分享图片技术分享图片

       2.使用下面的create_voc_data.py生成xml文件和后续需要的txt文件

 

技术分享图片
import os
import numpy as np
import sys
import cv2
from itertools import islice
from xml.dom.minidom import Document
def create_list(dataName,img_list_txt,img_path,img_name_list_txt,type):
   f=open(img_name_list_txt,w)
   fAll=open(img_list_txt,w)
   for name in os.listdir(img_path):
      f.write(name[0:-4]+\n)
      fAll.write(dataName+/+JPEGImages+/+type+/+name[0:-4]+.jpg+ )
      fAll.write(dataName+/+Annotations+/+type+/+name[0:-4]+.xml+\n)
   f.close()
def insertObject(doc, datas):
    obj = doc.createElement(object)
    name = doc.createElement(name)

    name.appendChild(doc.createTextNode(text))
    obj.appendChild(name)
    bndbox = doc.createElement(bndbox)

    xmin = doc.createElement(xmin)
    xmin.appendChild(doc.createTextNode(str(datas[0]).strip( )))
    bndbox.appendChild(xmin)
    ymin = doc.createElement(ymin)
    ymin.appendChild(doc.createTextNode(str(datas[1]).strip( )))
    bndbox.appendChild(ymin)
    xmax = doc.createElement(xmax)
    xmax.appendChild(doc.createTextNode(str(datas[2]).strip( )))
    bndbox.appendChild(xmax)
    ymax = doc.createElement(ymax)
    ymax.appendChild(doc.createTextNode(str(datas[3]).strip( )))
    bndbox.appendChild(ymax)
    obj.appendChild(bndbox)
    return obj


def txt_to_xml(labels_path,img_path,img_name_list_txt,xmlpath_path,bb_split,name_size):
    img_name_list=np.loadtxt(img_name_list_txt,dtype=str)
    name_size_file=open(name_size,w)
    for img_name in img_name_list:
        print(img_name)
        imageFile = img_path + img_name + .jpg
        img = cv2.imread(imageFile)
        imgSize = img.shape
        name_size_file.write(img_name+ +str(imgSize[0])+ +str(imgSize[1])+\n)

        sub_label=labels_path+gt_+img_name+.txt
        fidin = open(sub_label, r)
        flag=0
        for data in islice(fidin, 1, None):
            flag=flag+1
            data = data.strip(\n)
            datas = data.split(bb_split)
            if 5 != len(datas):
                print img_name+:bounding box information error
                exit(-1)
            if 1 == flag:
                xml_name = xmlpath_path+img_name+.xml
                f = open(xml_name, "w")
                doc = Document()
                annotation = doc.createElement(annotation)
                doc.appendChild(annotation)

                folder = doc.createElement(folder)
                folder.appendChild(doc.createTextNode(dataName))
                annotation.appendChild(folder)

                filename = doc.createElement(filename)
                filename.appendChild(doc.createTextNode(img_name+.jpg))
                annotation.appendChild(filename)

                size = doc.createElement(size)
                width = doc.createElement(width)
                width.appendChild(doc.createTextNode(str(imgSize[1])))
                size.appendChild(width)
                height = doc.createElement(height)
                height.appendChild(doc.createTextNode(str(imgSize[0])))
                size.appendChild(height)
                depth = doc.createElement(depth)
                depth.appendChild(doc.createTextNode(str(imgSize[2])))
                size.appendChild(depth)
                annotation.appendChild(size)
                annotation.appendChild(insertObject(doc, datas))
            else:
                annotation.appendChild(insertObject(doc, datas))
        try:
            f.write(doc.toprettyxml(indent=    ))
            f.close()
            fidin.close()
        except:
            pass
    name_size_file.close()
if __name__ == __main__:
   dataName = ICDAR2013  # dataset name
   type = test  # type
   bb_split= 
   img_path = dataName + /JPEGImages/ + type + /  # img path
   img_name_list_txt = dataName + /ImageSets/Main/+type+.txt
   img_list_txt=type+.txt
   create_list(dataName,img_list_txt,img_path,img_name_list_txt,type)
   labels_path = dataName+/label/+type+/
   xmlpath_path = dataName+/Annotations/+type+/
   name_size=type+_name_size.txt
   #txt_to_xml(labels_path,img_path,img_name_list_txt,xmlpath_path,bb_split,name_size)
View Code

     执行上面的代码就得到了

       A.Annotations/test下的xml格式文件,只要修改type=train就可以得到训练集的xml格式的gt文件,下同。

       B.ImageSets\Main下的test.txt文件
      C.执行代码同级目录下的test.txt和test_name_size.txt。这两个文件本应该是用VOCDevit的create_data.sh实现的,此处用python脚本替代了,更方便。注意B和C中的txt文件内容不同,区别如下图:

技术分享图片技术分享图片

四、制作lmdb格式数据。

       现在目录格式是这样的:

技术分享图片

    所以需要:

    1。建立mydataset文件夹,把刚才制作好的VOC整个文件夹丢进去

技术分享图片

    2。建立result文件夹,并把刚才产生的几个文件丢进去。

   技术分享图片

     其中的labelmap_ICDAR2013.prototxt是自己建的,内容如下:

   

item {
  name: "none_of_the_above"
  label: 0
  display_name: "background"
}
item {
  name: "text"
  label: 1
  display_name: "text"
}

 3.create_data.sh是VOC0712示例修改过来的,代码如下:

  

cur_dir=$(cd $( dirname ${BASH_SOURCE[0]} ) && pwd )
redo=1
#caffe_root="/dataL/ljy/caffe-ssd"
data_root_dir="$cur_dir/mydataset"
type=test
dataset_name="ICDAR2013"
mapfile="$cur_dir/result/$dataset_name/labelmap_$dataset_name.prototxt"
anno_type="detection"
db="lmdb"
min_dim=0
max_dim=0
width=0
height=0

extra_cmd="--encode-type=jpg --encoded"
if [ $redo ]
then
  extra_cmd="$extra_cmd --redo"
fi
for subset in $type
do
  python create_annoset.py --anno-type=$anno_type --label-map-file=$mapfile --min-dim=$min_dim --max-dim=$max_dim --resize-width=$width --resize-height=$height --check-label $extra_cmd $data_root_dir result/$dataset_name/$subset.txt result/$dataset_name/$dataset_name"_"$subset"_"$db result/$dataset_name
done

 4.create_annoset.py是SSD自带工具修改过来的,修改如下:

import argparse
import os
import shutil
import subprocess
import sys

from caffe.proto import caffe_pb2
from google.protobuf import text_format

if __name__ == "__main__":
  parser = argparse.ArgumentParser(description="Create AnnotatedDatum database")
  parser.add_argument("root",
      help="The root directory which contains the images and annotations.")
  parser.add_argument("listfile",
      help="The file which contains image paths and annotation info.")
  parser.add_argument("outdir",
      help="The output directory which stores the database file.")
  parser.add_argument("exampledir",
      help="The directory to store the link of the database files.")
  parser.add_argument("--redo", default = False, action = "store_true",
      help="Recreate the database.")
  parser.add_argument("--anno-type", default = "classification",
      help="The type of annotation {classification, detection}.")
  parser.add_argument("--label-type", default = "xml",
      help="The type of label file format for detection {xml, json, txt}.")
  parser.add_argument("--backend", default = "lmdb",
      help="The backend {lmdb, leveldb} for storing the result")
  parser.add_argument("--check-size", default = False, action = "store_true",
      help="Check that all the datum have the same size.")
  parser.add_argument("--encode-type", default = "",
      help="What type should we encode the image as (‘png‘,‘jpg‘,...).")
  parser.add_argument("--encoded", default = False, action = "store_true",
      help="The encoded image will be save in datum.")
  parser.add_argument("--gray", default = False, action = "store_true",
      help="Treat images as grayscale ones.")
  parser.add_argument("--label-map-file", default = "",
      help="A file with LabelMap protobuf message.")
  parser.add_argument("--min-dim", default = 0, type = int,
      help="Minimum dimension images are resized to.")
  parser.add_argument("--max-dim", default = 0, type = int,
      help="Maximum dimension images are resized to.")
  parser.add_argument("--resize-height", default = 0, type = int,
      help="Height images are resized to.")
  parser.add_argument("--resize-width", default = 0, type = int,
      help="Width images are resized to.")
  parser.add_argument("--shuffle", default = False, action = "store_true",
      help="Randomly shuffle the order of images and their labels.")
  parser.add_argument("--check-label", default = False, action = "store_true",
      help="Check that there is no duplicated name/label.")

  args = parser.parse_args()
  root_dir = args.root
  list_file = args.listfile
  out_dir = args.outdir
  example_dir = args.exampledir

  redo = args.redo
  anno_type = args.anno_type
  label_type = args.label_type
  backend = args.backend
  check_size = args.check_size
  encode_type = args.encode_type
  encoded = args.encoded
  gray = args.gray
  label_map_file = args.label_map_file
  min_dim = args.min_dim
  max_dim = args.max_dim
  resize_height = args.resize_height
  resize_width = args.resize_width
  shuffle = args.shuffle
  check_label = args.check_label

  # check if root directory exists
  if not os.path.exists(root_dir):
    print "root directory: {} does not exist".format(root_dir)
    sys.exit()
  # add "/" to root directory if needed
  if root_dir[-1] != "/":
    root_dir += "/"
  # check if list file exists
  if not os.path.exists(list_file):
    print "list file: {} does not exist".format(list_file)
    sys.exit()
  # check list file format is correct
  with open(list_file, "r") as lf:
    for line in lf.readlines():
      img_file, anno = line.strip("\n").strip("\r").split(" ")     

      if not os.path.exists(root_dir + img_file):
        print "image file: {} does not exist".format(root_dir + img_file)
      if anno_type == "classification":
        if not anno.isdigit():
          print "annotation: {} is not an integer".format(anno)
      elif anno_type == "detection":
        #print(root_dir + anno)
        #print(os.path.exists(root_dir + anno))
        if not os.path.exists(root_dir + anno):        
          print "annofation file: {} does not exist".format(root_dir + anno)
          sys.exit()
      break
  # check if label map file exist
  if anno_type == "detection":
    if not os.path.exists(label_map_file):
      print "label map file: {} does not exist".format(label_map_file)
      sys.exit()
    label_map = caffe_pb2.LabelMap()
    lmf = open(label_map_file, "r")
    try:
      text_format.Merge(str(lmf.read()), label_map)
    except:
      print "Cannot parse label map file: {}".format(label_map_file)
      sys.exit()
  out_parent_dir = os.path.dirname(out_dir)
  if not os.path.exists(out_parent_dir):
    os.makedirs(out_parent_dir)
  if os.path.exists(out_dir) and not redo:
    print "{} already exists and I do not hear redo".format(out_dir)
    sys.exit()
  if os.path.exists(out_dir):
    shutil.rmtree(out_dir)

  # get caffe root directory
  #caffe_root = os.path.dirname(os.path.dirname(os.path.realpath(__file__)))
  #print(caffe_root)
  caffe_root=‘/dataL/ljy/caffe-ssd‘
  if anno_type == "detection":
    cmd = "{}/build/tools/convert_annoset"         " --anno_type={}"         " --label_type={}"         " --label_map_file={}"         " --check_label={}"         " --min_dim={}"         " --max_dim={}"         " --resize_height={}"         " --resize_width={}"         " --backend={}"         " --shuffle={}"         " --check_size={}"         " --encode_type={}"         " --encoded={}"         " --gray={}"         " {} {} {}"         .format(caffe_root, anno_type, label_type, label_map_file, check_label,
            min_dim, max_dim, resize_height, resize_width, backend, shuffle,
            check_size, encode_type, encoded, gray, root_dir, list_file, out_dir)
  elif anno_type == "classification":
    cmd = "{}/build/tools/convert_annoset"         " --anno_type={}"         " --min_dim={}"         " --max_dim={}"         " --resize_height={}"         " --resize_width={}"         " --backend={}"         " --shuffle={}"         " --check_size={}"         " --encode_type={}"         " --encoded={}"         " --gray={}"         " {} {} {}"         .format(caffe_root, anno_type, min_dim, max_dim, resize_height,
            resize_width, backend, shuffle, check_size, encode_type, encoded,
            gray, root_dir, list_file, out_dir)
  print cmd
  process = subprocess.Popen(cmd.split(), stdout=subprocess.PIPE)
  output = process.communicate()[0]

  if not os.path.exists(example_dir):
    os.makedirs(example_dir)
  link_dir = os.path.join(example_dir, os.path.basename(out_dir))
  print(link_dir)
  ‘‘‘
  if os.path.exists(link_dir):
    os.unlink(link_dir)
  
  os.symlink(out_dir, link_dir)
  ‘‘‘

  最后三句是创建快捷方式,可以注释掉,里面改的是img_file, anno = line.strip("\n").strip("\r").split(" ") 和caffe_root=‘/dataL/ljy/caffe-ssd‘。第一句是因为windows和linux系统对换行的处理不同,所以如果create_voc_data.py是在windows上执行的,后面这个sh在Linux上执行报错就要改这句。后面这句是把caffe目录切过来。只改这三个地方就可以了。

执行create_data.sh就可以在result/ICDAR2013/下面看到我们得到的lmdb格式的数据了。对于相同数据集只要改type=test或者train就行,不用数据集只要改数据集名字就可以。

  

目标检测lmdb数据格式制作

标签:action   UI   dir   分享   测试   ready   random   文件内容   hid   

原文地址:https://www.cnblogs.com/EstherLjy/p/8215596.html

(0)
(3)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!