快乐虾
http://blog.csdn.net/lights_joy/
欢迎转载,但请保留作者信息
在opencv中支持SVM分类器,本文尝试在python中调用它。
和前面的贝叶斯分类器一样,SVM也遵循先训练再使用的方式,我们直接在贝叶斯分类器的测试代码上做简单修改,完成两类数据点的分类。
首先也是先创建训练用的数据,需要注意的是这里的train_label必须是整数类型,而不是float:
# 训练的点数 train_pts = 30 # 创建测试的数据点,2类 # 以(-1.5, -1.5)为中心 rand1 = np.ones((train_pts,2)) * (-2) + np.random.rand(train_pts, 2) print(‘rand1:‘) print(rand1) # 以(1.5, 1.5)为中心 rand2 = np.ones((train_pts,2)) + np.random.rand(train_pts, 2) print(‘rand2:‘) print(rand2) # 合并随机点,得到训练数据 train_data = np.vstack((rand1, rand2)) train_data = np.array(train_data, dtype=‘float32‘) train_label = np.vstack( (np.zeros((train_pts,1), dtype=‘int32‘), np.ones((train_pts,1), dtype=‘int32‘))) # 显示训练数据 plt.figure(1) plt.plot(rand1[:,0], rand1[:,1], ‘o‘) plt.plot(rand2[:,0], rand2[:,1], ‘o‘) plt.plot(rand2[:,0], rand2[:,1], ‘o‘)
类似这样的数据:
在得到训练数据后,接着创建一个SVM分类器并配置训练参数:
# 创建分类器 svm = cv2.ml.SVM_create() svm.setType(cv2.ml.SVM_C_SVC) # SVM类型 svm.setKernel(cv2.ml.SVM_LINEAR) # 使用线性核 svm.setC(1.0)
接着我们对此分类器进行训练:
# 训练 ret = svm.train(train_data, cv2.ml.ROW_SAMPLE, train_label)
在训练完成后就可以使用测试数据进行预测了:
# 测试数据,20个点[-2,2] pt = np.array(np.random.rand(20,2) * 4 - 2, dtype=‘float32‘) (ret, res) = svm.predict(pt) print("res = ") print(res)
predict通过res返回得到一个20x1的数组,每一行对应一个输入点,计算得到的值就是分类的序号,在这里是0和1,我们取0.5为阈值进行分类并显示结果:
# 按label进行分类显示 plt.figure(2) res = np.hstack((res, res)) # 第一类 type_data = pt[res < 0.5] type_data = np.reshape(type_data, (type_data.shape[0] / 2, 2)) plt.plot(type_data[:,0], type_data[:,1], ‘o‘) # 第二类 type_data = pt[res >= 0.5] type_data = np.reshape(type_data, (type_data.shape[0] / 2, 2)) plt.plot(type_data[:,0], type_data[:,1], ‘o‘) plt.show()
看看最后的结果:
最后,通过svm. getSupportVectors获取支持向量。
# 支持向量 vec = svm.getSupportVectors() print(vec)
版权声明:本文为博主原创文章,未经博主允许不得转载。
原文地址:http://blog.csdn.net/lights_joy/article/details/46779343