easyPR是一个开源的中文车牌识别系统,其目标是成为一个简单、高效、准确的非限制场景(unconstrained situation)下的车牌识别库。
相比于其他的车牌识别系统,EasyPR有如下特点:
- 它基于openCV这个开源库。这意味着你可以获取全部源代码,并且移植到opencv支持的所有平台。
- 它能够识别中文。例如车牌为苏EUK722的图片,它可以准确地输出std:string类型的"苏EUK722"的结果。
- 它的识别率较高。图片清晰情况下,车牌检测与字符识别可以达到80%以上的精度。点
它以 General Data Share License形式公开了一些中文汽车图片
因为我使用了交叉严重,所以不需要分目录放,直接可以把pos和neg图片各自放到一个目录下面。
2、重构算法,运行于easypr;
import cv2
import numpy as np
from os.path import join
import numpy as np
import os
import math
#在carData建立svm模型并且k_fold测试,ratio=1表示全部数据用于测试
RATIO = 0.2
datapath = "D:/dl4cv/datesets/EasyPRresources/train/svm/"#分为has和no两个文件夹,全部取jpg图片
#根据Ratio获得训练和测试数据集的图片地址和标签
def get_files(file_dir, ratio):
‘‘‘
Args:
file_dir: file directory
Returns:
list of images and labels
‘‘‘
pos = []
label_pos = []
neg = []
label_neg = []
for file in os.listdir(file_dir+"has/"):
pos.append(file_dir + "has/"+file)
label_pos.append(1)
for file in os.listdir(file_dir+"no/"):
neg.append(file_dir + "no/"+file)
label_neg.append(1)
print(‘数据集中有 %d pos \n以及 %d neg ‘ %(len(pos), len(neg)))
#图片list和标签list
#hstack 水平(按列顺序)把数组给堆叠起来
image_list = np.hstack((pos, neg))
label_list = np.hstack((label_pos, label_neg))
temp = np.array([image_list, label_list])
temp = temp.transpose()
#乱序的目的是为了让正样本和负样本混在一起,这样直接取其中百分之多少就可以来用了
np.random.shuffle(temp)
all_image_list = temp[:, 0]
all_label_list = temp[:, 1]
n_sample = len(all_label_list)
#根据比率,确定训练和测试数量
n_val = math.ceil(n_sample*ratio) # number of validation samples
n_train = n_sample - n_val # number of trainning samples
tra_images = []
val_images = []
#按照0-n_train为tra_images,后面位val_images的方式来排序
tra_images = all_image_list[:n_train]
tra_labels = all_label_list[:n_train]
tra_labels = [int(float(i)) for i in tra_labels]
val_images = all_image_list[n_train:]
val_labels = all_label_list[n_train:]
val_labels = [int(float(i)) for i in val_labels]
return tra_images,tra_labels,val_images,val_labels
#创建sift特征提取
detect = cv2.xfeatures2d.SIFT_create()
extract = cv2.xfeatures2d.SIFT_create()
#创建基于flann的匹配器
flann_params = dict(algorithm = 1, trees = 5)
matcher = cv2.FlannBasedMatcher(flann_params, {})
#创建bow训练器
bow_kmeans_trainer = cv2.BOWKMeansTrainer(40)
extract_bow = cv2.BOWImgDescriptorExtractor(extract, matcher)
#以灰度方式读取图像,提取sift,并返回结果
def extract_sift(fn):
im = cv2.imread(fn)
try:
cv2.cvtColor(im,im,cv2.COLOR_BGR2GRAY)
except :
pass
return extract.compute(im, detect.detect(im))[1]
#返回bow的描述符提取器计算得到的描述符
def bow_features(fn):
im = cv2.imread(fn,0)
return extract_bow.compute(im, detect.detect(im))
#返回预测的结果
def predict(fn):
f = bow_features(fn);
p = svm.predict(f)
print(fn, "\t", p[1][0][0])
return p
############################################# main ###############################################
#获得训练和测试数据集的图片地址和标签
train_images, train_labels, val_images, val_labels = get_files(datapath, RATIO)
traindata, trainlabels = [],[]
#为feature模型输入正负样本
for i in range(20):
try:
bow_kmeans_trainer.add(extract_sift(train_images[i]))
except :
pass
#feature模型聚类,返回词汇表
voc = bow_kmeans_trainer.cluster()
extract_bow.setVocabulary( voc )
#创建并训练一个svm模型
print("创建并训练一个svm模型")
for i in range(len(train_images)):
try:
traindata.extend(bow_features(train_images[i]))
trainlabels.append(train_labels[i])
except :
pass
svm = cv2.ml.SVM_create()
svm.train(np.array(traindata), cv2.ml.ROW_SAMPLE, np.array(trainlabels))
print("在测试集上进行测试")
#在测试集上进行测试
result = []
for i in range(len(val_images)):
try:
f = bow_features(val_images[i]);
p = svm.predict(f)
result.append(p[1][0][0])
except :
result.append(0)
np_val_labels = np.array(val_labels)[:,np.newaxis]
np_result = np.array(result)[:,np.newaxis]
matches = np_result == np_val_labels
correct = np.count_nonzero(matches)
accuracy = correct*100.0/len(result)
print(accuracy)
这里对相关算法进行了重构,主要是以下几个方面
1、将获得交叉数据集的函数和创建features的几个函数进行了重构,这样实现算法流程清晰;
2、添加了异常控制,避免错误;
3、添加了一些流程控制。
结果:
附件列表