码迷,mamicode.com
首页 > 其他好文 > 详细

logistic回归与手写识别例子的实现

时间:2017-08-07 22:20:58      阅读:277      评论:0      收藏:0      [点我收藏+]

标签:相关   border   blog   ase   错误   machine   data-   sof   .com   

本文主要介绍logistic回归相关知识点和一个手写识别的例子实现

一、logistic回归介绍:

logistic回归算法很简单,这里简单介绍一下:

1、和线性回归做一个简单的对比

下图就是一个简单的线性回归实例,简单一点就是一个线性方程表示

技术分享

(就是用来描述自变量和因变量已经偏差的方程)

 

2、logistic回归

可以看到下图,很难找到一条线性方程能将他们很好的分开。这里也需要用到logistic回归来处理了。

技术分享

 

logistic回归本质上是线性回归,只是在特征到结果的映射中加入了一层函数映射,即先把特征线性求和,然后使用函数g(z)将最为假设函数来预测。g(z)可以将连续值映射到0和1上。
logistic回归的假设函数如下,线性回归假设函数只是技术分享

技术分享

logistic回归用来分类0/1问题,也就是预测结果属于0或者1的二值分类问题。这里假设了二值满足伯努利分布,也就是

技术分享

其实这里求的是最大似然估计,然后求导,最后得到迭代公式结果为

技术分享


可以看到与线性回归类似。

3、logistic回归原理介绍

 

(1)找一个合适的预测函数,一般表示为h函数,该函数就是我们需要找的分类函数,它用来预测输入数据的判断结果。

 

(2)构造一个Cost函数(损失函数),该函数表示预测的输出(h)与训练数据类别(y)之间的偏差,可以是二者之间的差(h-y)或者是其他的形式。综合考虑所有训练数据的“损失”,将Cost求和或者求平均,记为J(θ)函数,表示所有训练数据预测值与实际类别的偏差。

技术分享

 

实际上这里的Cost函数和J(θ)函数是基于最大似然估计推导得到的,这里也就不详细讲解了。

(3)我们可以看出J(θ)函数的值越小表示预测函数越准确(即h函数越准确),所以这一步需要做的是找到J(θ)函数的最小值,Logistic Regression实现时有的是梯度下降法(Gradient Descent)。

技术分享

 

梯度下降法是按下面的流程进行的:
1)首先对θ赋值,这个值可以是随机的,也可以让θ是一个全零的向量。
2)改变θ的值,使得J(θ)按梯度下降的方向进行减少。
梯度方向由J(θ)对θ的偏导数确定,由于求的是极小值,因此梯度方向是偏导数的反方向。结果为

技术分享
迭代更新的方式有两种,一种是批梯度下降,也就是对全部的训练数据求得误差后再对θ进行更新,另外一种是增量梯度下降,每扫描一步都要对θ进行更新。前一种方法能够不断收敛,后一种方法结果可能不断在收敛处徘徊。

 

二、手写识别的例子实现

 

1、简介
手写识别的概念:是指将在手写设备上书写时产生的轨迹信息转化为具体字码。
手写识别系统是个很大的项目,识别汉字、英语、数字、其他字符。本文重点不在手写识别而在于理解logistic,因此只识别0~9单个数字。

 

讲到用logistic算法识别数字0~9,这是个十类别问题,如果要用logistic回归,得做10次logistic回归,第一次将0作为一个类别,1~9作为另外一个类别,这样就可以识别出0或非0。同样地可以将1作为一个类别,0、2~9作为一个类别,这样就可以识别出1或非1........

 

本文的实例为了简化,我只选出0和1的样本,这是个二分类问题。

 

输入格式:每个手写数字已经事先处理成32*32的二进制文本,存储为txt文件。

 

工程文件目录说明:

技术分享

 

 

logistic regression.py实现的功能:从train里面读取训练数据,然后用梯度上升算法训练出参数Θ,接着用参数Θ来预测test里面的测试样本,同时计算错误率。

 

打开test或者train一个文件看看:

 

技术分享

 

2、简单实现:

(1)将每个图片(即txt文本)转化为一个向量,即32*32的数组转化为1*1024的数组,这个1*1024的数组用机器学习的术语来说就是特征向量。

(2)训练样本中有m个图片,可以合并成一个m*1024的矩阵,每一行对应一个图片。

(3)用梯度下降法计算得到回归系数。

(4)分类,根据参数weigh对测试样本进行预测,同时计算错误率。

代码如下:

 

 

[python] view plain copy
 
  1. # -*- coding: utf-8 -*-  
  2. from numpy import *  
  3. from os import listdir  
  4.   
  5. """ 
  6. (1)将每个图片(即txt文本)转化为一个向量,即32*32的数组转化为1*1024的数组,这个1*1024的数组用机器学习的术语来说就是特征向量。 
  7. 实现的功能是从文件夹中读取所有文件,并将其转化为矩阵返回 
  8. 如调用loadData(‘train‘),则函数会读取所有的txt文件(‘0_0.txt‘一直到‘1_150.txt‘) 
  9. 并将每个txt文件里的32*32个数字转化为1*1024的矩阵,最终返回大小是m*1024的矩阵 
  10. 同时返回每个txt文件对应的数字,0或1 
  11. """  
  12. def loadData(direction):  
  13.     print(direction)  
  14.     trainfileList=listdir(direction)  
  15.     m=len(trainfileList)  
  16.     dataArray= zeros((m,1024))  
  17.     labelArray= zeros((m,1))  
  18.     for i in range(m):  
  19.         returnArray=zeros((1,1024))  #每个txt文件形成的特征向量  
  20.         filename=trainfileList[i]  
  21.         fr=open(‘%s/%s‘ %(direction,filename))  
  22.         for j in range(32):  
  23.             lineStr=fr.readline()  
  24.             for k in range(32):  
  25.                 returnArray[0,32*j+k]=int(lineStr[k])  
  26.         dataArray[i,:]=returnArray   #存储特征向量  
  27.       
  28.         filename0=filename.split(‘.‘)[0]  
  29.         label=filename0.split(‘_‘)[0]  
  30.         labelArray[i]=int(label)     #存储类别  
  31.     return dataArray,labelArray  
  32.   
  33. #sigmoid(inX)函数  
  34. def sigmoid(inX):  
  35.     return 1.0/(1+exp(-inX))  
  36.   
  37. #用梯度下降法计算得到回归系数,alpha是步长,maxCycles是迭代步数。  
  38. def gradAscent(dataArray,labelArray,alpha,maxCycles):  
  39.     dataMat=mat(dataArray)    #size:m*n  
  40.     labelMat=mat(labelArray)      #size:m*1  
  41.     m,n=shape(dataMat)  
  42.     weigh=ones((n,1))   
  43.     for i in range(maxCycles):  
  44.         h=sigmoid(dataMat*weigh)  
  45.         error=labelMat-h    #size:m*1  
  46.         weigh=weigh+alpha*dataMat.transpose()*error  
  47.     return weigh  
  48.   
  49. #分类函数,根据参数weigh对测试样本进行预测,同时计算错误率  
  50. def classfy(testdir,weigh):  
  51.     dataArray,labelArray=loadData(testdir)  
  52.     dataMat=mat(dataArray)  
  53.     labelMat=mat(labelArray)  
  54.     h=sigmoid(dataMat*weigh)  #size:m*1  
  55.     m=len(h)  
  56.     error=0.0  
  57.     for i in range(m):  
  58.         if int(h[i])>0.5:  
  59.             print (int(labelMat[i]),‘is classfied as: 1‘)  
  60.             if int(labelMat[i])!=1:  
  61.                 error+=1  
  62.                 print (‘error‘)  
  63.         else:  
  64.             print (int(labelMat[i]),‘is classfied as: 0‘)  
  65.             if int(labelMat[i])!=0:  
  66.                 error+=1  
  67.                 print (‘error‘)  
  68.     print (‘error rate is:‘,‘%.4f‘ %(error/m))  
  69. """ 
  70. 用loadData函数从train里面读取训练数据,接着根据这些数据,用gradAscent函数得出参数weigh,最后就可以用拟 
  71. 合参数weigh来分类了。 
  72. """                  
  73. def digitRecognition(trainDir,testDir,alpha=0.07,maxCycles=10):  
  74.     data,label=loadData(trainDir)  
  75.     weigh=gradAscent(data,label,alpha,maxCycles)  
  76.     classfy(testDir,weigh)  
  77.   
  78. #运行函数      
  79. digitRecognition(‘train‘,‘test‘,0.01,50)         
  80.           
  81.           

当然,digitRecognition(‘train‘,‘test‘,0.01,50)  这里面的0.01 和 50都是可以调整的
最终结果如下:

 

技术分享

 

 

整个工程文件包括源代码、训练集、测试集,可到点击下载

 

参考资料:

https://www.coursera.org/course/ml

http://www.cnblogs.com/jerrylead/archive/2011/03/05/1971867.html

http://blog.csdn.net/dongtingzhizi/article/details/15962797

http://openclassroom.stanford.edu/MainFolder/HomePage.php

https://www.coursera.org/course/ml

logistic回归与手写识别例子的实现

标签:相关   border   blog   ase   错误   machine   data-   sof   .com   

原文地址:http://www.cnblogs.com/wojiaohunian/p/7301178.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!