标签:链接 适应 水平 .com oba return ati admin roc
<PYTHON_MACHINE_LEARNING> chapter3
A Tour of Machine Learning
Classifers Using Scikit-learn
在我们进行分类的时,所取样本中的特征值一般都分布在实数域,但是我们想得到的往往是一个在 [0,1] 中的类似概率的值。 或者这么说,为了让特征值之间不会因为相差过大而造成干扰,比如,只有一个特征取值特别大,但是其他取值很小的时候, 我们需要对数据进行归一化。 即我们需要用一个从R 到 [0,1] 的单射来先处理特征值矩阵,然后再进行机器学习。当所用的映射是 sigmoid函数的时候,我们管这样的机器学习算法叫做逻辑回归。
PS:逻辑回归是用来分类的!!!不是用来做线性回归的! sigmoid 函数的反函数叫做 logit 函数, 这就是逻辑回归 logistic regression 的来历,跟逻辑没啥关系......
这个函数的特点就是一条S型的定义域在 R 中, 值域在 [0,1] 中的函数
同时它也代表 y=1的概率, y=0 的概率为 1-phi(z)
画一下图来说明一下
#! /usr/bin/python <br> # -*-coding: utf8 -*-
import matplotlib.pyplot as plt
import numpy as np
def sigmoid(z):
return 1.0/(1.0+np.exp(-z))
z = np.arange(-10,10,0.1)
p = sigmoid(z)
plt.plot(z,p)
#画一条竖直线,如果不设定x的值,则默认是0
plt.axvline(x=0, color=‘k‘)
plt.axhspan(0.0, 1.0,facecolor=‘0.7‘,alpha=0.4)
# 画一条水平线,如果不设定y的值,则默认是0
plt.axhline(y=1, ls=‘dotted‘, color=‘0.4‘)
plt.axhline(y=0, ls=‘dotted‘, color=‘0.4‘)
plt.axhline(y=0.5, ls=‘dotted‘, color=‘k‘)
plt.ylim(-0.1,1.1)
#确定y轴的坐标
plt.yticks([0.0, 0.5, 1.0])
plt.ylabel(‘$\phi (z)$‘)
plt.xlabel(‘z‘)
ax = plt.gca()
ax.grid(True)
plt.show()
http://www.cnblogs.com/kevinGaoblog/archive/2012/03/29/2424346.html
根据似然函数的概念,令似然函数最大的那个概率就是最合理的。我们想最大化似然函数,但是这个形式还是不够好看,毕竟是连乘的形式,所以,我们取一下对数
为了更好的理解,我们看一下单个样本的损失函数:
经过计算
我们就有了权值更新的公式
居然跟Adaline一模一样哎
意不意外?惊不惊喜?
我们再上一章 sklearn 实现 Perceptron 感知机的基础上用 Iris 的数据集来实践一下
__author__ = ‘Administrator‘
#! /usr/bin/python <br> # -*- coding: utf8 -*-
from sklearn import datasets
from sklearn.linear_model import LogisticRegression
from sklearn.cross_validation import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.metrics import accuracy_score
from PDC import plot_decision_regions
import matplotlib.pyplot as plt
from matplotlib.colors import ListedColormap
import numpy as np
iris = datasets.load_iris()
x = iris.data[:,[2,3]]
y = iris.target
X_train,X_test,y_train,y_test = train_test_split(
x , y, test_size=0.3, random_state = 0
)
sc = StandardScaler()
sc.fit(X_train)
X_train_std = sc.transform(X_train)
X_test_std = sc.transform(X_test)
Ir = LogisticRegression(C=1000.0,random_state=0)
Ir.fit(X_train_std,y_train)
X_combined_std = np.vstack((X_train_std,X_test_std))
y_combined = np.hstack((y_train,y_test))
plot_decision_regions(X=X_combined_std,y=y_combined,
classifier=Ir,
test_idx=range(105,150))
plt.xlabel(‘petal length [standardized]‘)
plt.ylabel(‘petal width [standardized]‘)
plt.legend(loc=‘upper left‘)
plt.savefig(‘Iris.png‘)
plt.show()
print(X_test_std[0,:])
a = Ir.predict_proba(X_test_std[0,:])
print(a)
过拟合与欠拟合是机器学习常见的两个问题
Ir = LogisticRegression(C=1000.0,random_state=0)
在类 LogisticRegression 中的参数C 来源于支持向量机(SVM)的相关概念, 这里先不作展开
weights, params = [], []
for c in list(range(-5,5)):
lr = LogisticRegression(C=10**int(c), random_state=0)
lr.fit(X_train_std, y_train)
weights.append(lr.coef_[1])
params.append(10**c)
weights = np.array(weights)
plt.plot(params, weights[:, 0],label=‘petal length‘)
plt.plot(params,weights[:,1],linestyle=‘--‘,label=‘petal width‘)
plt.ylabel(‘weight coefficient‘)
plt.xlabel(‘C‘)
plt.legend(loc=‘upper left‘)
plt.xscale(‘log‘)
plt.show()
标签:链接 适应 水平 .com oba return ati admin roc
原文地址:https://www.cnblogs.com/judejie/p/9016206.html