标签:
《神经网络与机器学习》第4章前半段笔记以及其他地方看到的东西的混杂…第2、3章的内容比较古老预算先跳过。
不得不说幸亏反向传播的部分是《神机》里边人话比较多的部分,看的时候没有消化不良。
书里前三章的模型的局限都很明显,对于非线性可分问题苦手,甚至简单的异或都弄不了。于是多层感知机(也就是传说中的神经网络)就被发明了出来对付这个问题。
多层感知机就是由一系列的感知机,或者说神经元组成,每个神经元都接受若干的输入(树突)并产生一个输出(轴突)。
这些神经元被分成若干层,每一层的神经元的输出都被作为下一层的神经元的输入,直到最外一层。这时最外一层的输出就是整个神经网络的输出。
由于神经网络的神经元数目变多了,因此可存储的信息量也增加了,复杂度也提高了,可以解决一些更难的,感知机和LSM算法解决不了的问题。
神经网络中,每个神经元都具备一系列权值参数和一个激活函数
设一系列输入值为
定义局部诱导域
其中
然后激活函数将局部诱导域
于是输出
激活函数的形式有很多,最常用的是
以及双曲正切函数:
于是整个神经网络的工作方式如下:
首先有一系列输入
把
其中
这系列输出值组成第一层的输出向量
再把输出值向量像输入向量那样,前边带上1,组成第二层的输出向量
再然后就是把第一层的输出向量作为第二层的输入向量输入给第二层计算,产生第二层的输出,即:
以此类推。
就这样直到跑到最后一层神经元,往后已经没有其他神经元层了,那么这层神经元的输出就是整个神经网络的输出,于是这层被称为输出层。而往前的那些只是把输出传递给下一层的神经元层称为隐藏层。
这就是神经网络的信号的前向传播过程,称为前馈。
实际应用中为了处理起来简便,上边的过程会表示为矩阵和向量的形式。
比如在第
接下来就是多层感知机(神经网络)的学习策略。
在这里有必要了解梯度下降的原理,因为它是反向传播的基础。
神经网络也是跟感知机一样用的试错式学习。有监督学习情况下,给定一系列样本
那么学习的目标就是让这神经网络对每个输入的样本,都产生出跟样本对应的期望响应尽可能接近的输出,最好一模一样。又或者说,尽可能地减小神经网络的输出值跟对应的期望响应之间的误差。
于是可以定义一个误差函数
这样子问题就变成了:找到一组权值
但是我们并不知道误差函数的全貌是什么样子,而且神经网络结构复杂,权值多如牛毛,要盲目得找来找到让误差函数最小的权值基本上是不可能的。
一个可行的办法就是从一个初始权值组
所以接下来梯度下降法就该出场了。
然后问题就可以变成这个说法:
在多维空间里,从一谷地边缘的某处
当然是顺着坡最陡的方向往下走呗。
如果还记得高数的知识应该马上能想的出来:多元函数的梯度的方向就是坡最陡的方向,沿着这个方向函数值变化得最大。不过微积分规定梯度的正方向是让函数值增加的,所以应该顺着梯度相反的方向走,这样函数值降低得最快。
所以写出来就是:
有了这个策略,就可以保证可以一步一步最终走到最低点了。这就是传说中的梯度下降(Gradient Descent)法。
当然这个只是最原始的梯度下降法,缺点很明显,你有可能最终走进的只是一个局部最低点,而不是全局最低点。
先不聊反向传播是啥子,先拿梯度下降法来推导神经网络修改权值的公式。
首先将误差函数进行如下定义:
有了具体的误差函数就可以直接求梯度了。
先看看输出层神经元的权值。
设
然后让
接下来就是隐藏层。
隐藏层咋办?依然是简单粗暴的解决办法——拿输出层输出的误差函数
先设这隐藏层后边就是输出层。此时输出层是第
误差函数依然是:
拿误差函数对本隐藏层的权值求导,依然根据链式求导法则:
综上,得
这时你应该注意到了,上式右边的项
所以令
从而这就是隐藏层神经元的反向传播公式:
从而可以推导出,每一层隐藏层神经元的局域梯度,等于其后一层所有神经元的局域梯度与其对本层神经元连接边的权值的乘积之和,乘上本层神经元激活函数对局部诱导域的导数。
如此一来,无论隐藏层有多深,每层隐藏层的权值修改都可以通过前一层的信息推导而得,而这一信息最终来源于输出层,输出层的信息又来源于误差信号。这就好像误差信号在从输出层开始,沿着各层间的连接边往后传播一样。
反向传播(Back Propagation)的说法就是这么来的。
这张图用来可视化误差的反向传播。
神经元的调权公式的形式均为:
对于输出层,局域梯度
其中公式已考虑了偏置项,此时
实在懒得推的话,其实记住上面的三个公式也就好了。
简单吧。
总之:作为神经网络的标配,BP算法就是这么简单粗暴,一旦理解了就会觉得也没多少技术含量。其实这里推出来的只是BP算法的最原始的形式,有了它神经网络依然没有解决计算量大、容易陷入局部最优解和过拟合等一大堆问题,又比如学习率参数
借助R原生的向量和矩阵处理功能可以方便简约地实现神经网络前馈和反向传播。
然后又是参考《神机》里边的例子,测试数据依然是双月牙数据集。双月牙的生成方式具体看上一篇关于感知机的文。
这里一上来就是间距为-4的线性不可分的双月牙:
点数依旧为2000。任务就是搞个神经网络把这两坨点分开。
参考《神机》,激活函数
# 双曲正切函数及其导数
phi = function(v) tanh(v)
dphi = function(v) 1/(cosh(v)**2)
这个神经网络应有一层输入层(废话),一层隐藏层和一层输出层。
于是前向传播的R代码如下:
# 前向传播
# 由于R中起始下标为1,于是将偏置项放到向量后边
# x为输入向量,W1、W2分别为第一、二层的权值矩阵,v1、v2分别为第一、二层的局部诱导域向量,y1、y2分别为第一、二层的输出向量
FF = function(x){
v1 = W1 %*% c(x,1)
y1 = phi(v1)
v2 = W2 %*% c(y1,1)
y2 = phi(v2)
return(y2)
}
定义神经网络参数。输入层节点数
m0 = 2
m1 = 20
m2 = 1
# 权值矩阵
W1 = matrix(runif(m1*(m0+1),-0.5,0.5),nrow=m1, ncol=m0+1)
W2 = matrix(runif(m2*(m1+1),-0.5,0.5),nrow=m2, ncol=m1+1)
在这里权值矩阵初始值为-0.5到0.5之间的数。跟感知机不同,要是像感知机那样初始值全都设为0的话神经网络会跑不动…
另外根据《神机》的温馨提示,初始权值不能设太高,否则网络容易过早饱和,一饱和就跑不动了。
然后学习率参数
n = 50
eta = seq(1e-1,1e-5,length.out = n)
然后就是训练:
MSE=c() # 初始化均方根误差序列
for(j in 1:n){
for(i in 1:N){
# 前向传播
x = dat[i,]
v1 = W1 %*% c(x,b)
y1 = phi(v1)
v2 = W2 %*% c(y1,b)
y2 = phi(v2)
# 反向传播
e2 = d[i] - y2
delta2 = e2*dphi(v2)
delta1 = dphi(v1)*(delta2*W2[1:m1])
dW2 = (eta[j]*delta2) %*% c(y1,b)
dW1 = (eta[j]*delta1) %*% c(x,b)
W2 = W2 + dW2
W1 = W1 + dW1
} # 计算每一个样本
# 计算均方根误差并记录
e = d - apply(dat,1,FF)
mse = sqrt(sum(e*e)/n)
MSE[j]=mse
} # 迭代
最后是可视化运行结果:
plot(MSE,type=‘l‘)
ty = sign(apply(dat,1,FF))
length(ty[ty!=d])/N #误分类率
ggplot()+geom_point(size=0.5,aes(x1,x2,color=factor(ty)))
开始跑数据…呃,结果是这样的:
可见只有靠近原点周边的点被全部正确分类了,上半月牙有一小块分错了地。
误分类率为4%。
《神机》上面倒是声称这个网络可以百分百地正确分类,并且可以在第15回合左右收敛。然而并没有给出初始权值怎么搞,也没有给出还有没做过什么其他预处理的工序。
继续摸索…
为了画出神经网络分出来的边界,使用了ggplot2包的等高线函数geom_contour()
。
具体方法是先创造一块若干排若干列的点集,然后所有点丢进神经网络跑出对应函数值,再使用等高线函数表现。
# 创造点集
qx = seq(min(x1),max(x1),length.out = 100)
qy = seq(min(x2),max(x2),length.out = 80)
q = merge(qx,qy)
names(q)=c(‘qx‘,‘qy‘)
# 求出每个点的函数
q$qz = apply(q,1,FF)
此时直接用ggplot2作出来的图是这样的:
qplot(data=q,qx,qy,color=qz)
已经可以看到分界轮廓了。接下来使用等高线函数画出边界:
op=q
op$x1=x1
op$x2=x2
op$y=sign(apply(dat,1,FF))
# 因为貌似ggplot2在用等高线图形函数的时候不支持同时画来自两个数据框的数据,只好蛋疼得重新搞了个数据框
ggplot(data=op)+geom_point(aes(x=x1,y=x2,color=factor(y)), size=0.35)+
geom_contour(bins = 1,color=‘black‘,size=0.6,aes(x=qx,y=qy,z=qz))
可发现神经网络只对于原点附近的数据敏感…
然后再往后翻终于发现《神机》的又一温馨提示:避免非0均值输入。
看来书里的样例是有经过标准化处理的。
接下来让样本均值为零,每个维度减去各自的均值:
x1=x1-mean(x1)
x2=x2-mean(x2)
# 重新生成数据集
dat = as.matrix(data.frame(x1,x2))
再跑,结果发现是这样子…
仍有3%的样本分类错了。
…
最后终于发现,隐藏层的初始权值-0.1到0.1间的随机数,输出层的初始权值设全部设为0.1,学习率参数退火改成5e-2到5e-6的时候,成功完成了分类…
虽然也没达到《神机》的15回合收敛。
总而言之,《神机》里边说神经网络与其说是一门技术,不如说是一门艺术,因为哪怕是有了BP算法,设初始权值这块也太?主观了…
下边是使用animation包配合ggplot2整的迭代过程动画,分别是月牙间距等于-4和-6的情况:
标签:
原文地址:http://blog.csdn.net/qq_32611933/article/details/51612102