标签:style blog http io color ar os 使用 for
1:简单概念描写叙述
如果如今有一些数据点,我们用一条直线对这些点进行拟合(改线称为最佳拟合直线),这个拟合过程就称为回归。训练分类器就是为了寻找最佳拟合參数,使用的是最优化算法。
基于sigmoid函数分类:logistic回归想要的函数可以接受全部的输入然后预測出类别。这个函数就是sigmoid函数,它也像一个阶跃函数。其公式例如以下:
当中: z = w0x0+w1x1+….+wnxn,w为參数, x为特征
为了实现logistic回归分类器,我们能够在每一个特征上乘以一个回归系数,然后把全部的结果值相加,将这个总和结果代入sigmoid函数中,进而得到一个范围在0~1之间的数值。不论什么大于0.5的数据被分入1类,小于0.5的数据被归入0类。所以,logistic回归也能够被看成是一种概率预计。
梯度上升法:基于的思想是要找到某函数的最大值,最好的方法是沿着该函数的梯度方向探寻。
该公式将一直被迭代运行,直到达到某个停止条件为止,比方迭代次数达到某个指定值或者算法达到某个能够同意的误差范围。
2:python代码的实现
(1) 使用梯度上升找到最佳參数
from numpy import * #载入数据 def loadDataSet(): dataMat = []; labelMat = [] fr = open('testSet.txt') for line in fr.readlines(): lineArr = line.strip().split() dataMat.append([1.0, float(lineArr[0]), float(lineArr[1])]) labelMat.append(int(lineArr[2])) return dataMat, labelMat #计算sigmoid函数 def sigmoid(inX): return 1.0/(1+exp(-inX)) #梯度上升算法-计算回归系数 def gradAscent(dataMatIn, classLabels): dataMatrix = mat(dataMatIn) #转换为numpy数据类型 labelMat = mat(classLabels).transpose() m,n = shape(dataMatrix) alpha = 0.001 maxCycles = 500 weights = ones((n,1)) for k in range(maxCycles): h = sigmoid(dataMatrix*weights) error = (labelMat - h) weights = weights + alpha * dataMatrix.transpose() * error return weights
(2) 画出决策边界
#画出决策边界 def plotBestFit(wei): import matplotlib.pyplot as plt weights = wei.getA() dataMat, labelMat = loadDataSet() dataArr = array(dataMat) n = shape(dataArr)[0] xcord1 = []; ycord1 = [] xcord2 = []; ycord2 = [] for i in range(n): if int(labelMat[i]) == 1: xcord1.append(dataArr[i,1]); ycord1.append(dataArr[i,2]) else: xcord2.append(dataArr[i,1]); ycord2.append(dataArr[i,2]) fig = plt.figure() ax = fig.add_subplot(111) ax.scatter(xcord1, ycord1, s = 30, c = 'red', marker='s') ax.scatter(xcord2, ycord2, s = 30, c = 'green') x = arange(-3.0, 3.0, 0.1) y = (-weights[0]- weights[1]*x)/weights[2] ax.plot(x, y) plt.xlabel('X1'); plt.ylabel('X2'); plt.show()
(3) 随机梯度上升算法
梯度上升算法在处理100个左右的数据集时尚可,但假设有数十亿样本和成千上万的特征,那么该方法的计算复杂度就太高了。改进方法为随机梯度上升算法,该方法一次仅用一个样本点来更新回归系数。它占用更少的计算资源,是一种在线算法,能够在数据到来时就完毕參数的更新,而不须要又一次读取整个数据集来进行批处理运算。一次处理全部的数据被称为批处理。
#随机梯度上升算法 def stocGradAscent0(dataMatrix, classLabels): dataMatrix = array(dataMatrix) m,n = shape(dataMatrix) alpha = 0.1 weights = ones(n) for i in range(m): h = sigmoid(sum(dataMatrix[i] * weights)) error = classLabels[i] - h weights = weights + alpha * error * dataMatrix[i] return weights
(4) 改进的随机梯度上升算法
#改进的随机梯度上升算法 def stocGradAscent1(dataMatrix, classLabels, numInter = 150): dataMatrix = array(dataMatrix) m,n = shape(dataMatrix) weights = ones(n) for j in range(numInter): dataIndex = range(m) for i in range(m): alpha = 4 / (1.0+j+i) + 0.01 #alpha值每次迭代时都进行调整 randIndex = int(random.uniform(0, len(dataIndex))) #随机选取更新 h = sigmoid(sum(dataMatrix[randIndex] * weights)) error = classLabels[randIndex] - h weights = weights + alpha * error * dataMatrix[randIndex] del[dataIndex[randIndex]] return weights
注意:主要做了三个方面的改进:<1>alpha在每次迭代的时候都会调整,这会缓解数据波动或者高频波动。<2>通过随机选取样本来更新回归系数,这样能够降低周期性波动<3>添加了一个迭代參数
3:案例—从疝气病症预測病马的死亡率
(1) 处理数据中缺失值方法:
可是对于类别标签丢失的数据,我们仅仅能採用将该数据丢弃。
(2) 案例代码
#案例-从疝气病症预測病马的死亡率 def classifyVector(inX, weights): prob = sigmoid(sum(inX*weights)) if prob > 0.5: return 1.0 else: return 0.0 def colicTest(): frTrain = open('horseColicTraining.txt') frTest = open('horseColicTest.txt') trainingSet = []; trainingLabels = [] for line in frTrain.readlines(): currLine = line.strip().split('\t') lineArr =[] for i in range(21): lineArr.append(float(currLine[i])) trainingSet.append(lineArr) trainingLabels.append(float(currLine[21])) trainWeights = stocGradAscent1(trainingSet, trainingLabels, 500) errorCount = 0; numTestVec = 0.0 for line in frTest.readlines(): numTestVec += 1.0 currLine = line.strip().split('\t') lineArr = [] for i in range(21): lineArr.append(float(currLine[i])) if int(classifyVector(array(lineArr), trainWeights))!= int(currLine[21]): errorCount += 1 errorRate = (float(errorCount)/numTestVec) print 'the error rate of this test is: %f' % errorRate return errorRate def multiTest(): numTests = 10;errorSum = 0.0 for k in range(numTests): errorSum += colicTest() print 'after %d iterations the average error rate is: %f' %(numTests, errorSum/float(numTests))
4:总结
Logistic回归的目的是寻找一个非线性函数sigmoid的最佳拟合參数,求解过程能够由最优化算法来完毕。在最优化算法中,最经常使用的就是梯度上升算法,而梯度上升算法又能够简化为随机梯度上升算法。
随机梯度上升算法和梯度上升算法的效果相当,但占用更少的计算资源。此外,随机梯度是一种在线算法,能够在数据到来时就完毕參数的更新,而不须要又一次读取整个数据集来进行批处理运算。
注明:1:本笔记来源于书籍<机器学习实战>
2:logRegres.py文件及笔记所用数据在这下载(http://download.csdn.net/detail/lu597203933/7735821).
作者:小村长 出处:http://blog.csdn.net/lu597203933 欢迎转载或分享,但请务必声明文章出处。 (新浪微博:小村长zack, 欢迎交流!)
标签:style blog http io color ar os 使用 for
原文地址:http://www.cnblogs.com/lcchuguo/p/4069418.html