标签:
They should never have been called multi-layer perceptrons.
感知机 learning rule 中,我们通过输入向量直接改变权重向量。
然而我们只能在出现错误时才能够调整权重。
online delta-rule 中,权重的修正量还带有残差和学习率作为系数。
Δwi=?ε?E?wi=∑nεxni(tn?yn)
对于线性神经元、平方误差时,错误面是一个抛物面。
- 错误面的纵切面是抛物线。
- 错误面的横切面是椭圆。
在权重空间某2个维度具有一定的相关性时,错误面会被拉长,其横剖面就变成了一个长椭圆,如图3。
与我们希望刚好相反,如图的红色向量在短轴方向有巨大分量,而在长轴方向分量却很小。
?E?zj=dyjdzj?E?yj=yj(1?yj)?E?yj
?E?yi=∑jdzjdyi?E?zj=∑jwij?E?zj
?E?wij=?zj?wij?E?zj=yi?E?zj
如何利用各个输入样本对应的导数来求得一个良好的权重。
Mini-batch: after a small sample of training cases.
普适性问题
如何保证学习到得权重对于网络没见过的样本也能起作用。
版权声明:本文为博主原创文章,未经博主允许不得转载。
Neural Networks for Machine Learning by Geoffrey Hinton (3)
标签:
原文地址:http://blog.csdn.net/ycheng_sjtu/article/details/47779053