标签:lan 角度 维度 反馈 训练 生物 机器学习 线性 height
机器学习能良好解决的问题
大脑工作模式
人类有个神经元,每一个包括个权重,带宽要远好于工作站。
神经元的不同类型
Linear (线性)神经元
Binary threshold (二值)神经元
ReLu(Rectified Linear Units) 神经元
Sigmoid 神经元
Stochastic binary (随机二值)神经元
学习任务的不同类型
Supervised learning(监督学习)
给定输入向量。学习怎样预測输出向量。
比如:回归与聚类。
Reinforcement learning(增强学习)
学习怎样选择动作去最大化payoff(收益)。
输出是一个动作,或者动作的序列。唯一的监督信号是一个标量反馈。
难度在于反馈在非常大程度上是有延时的,并且一个标量包括的信息量非常有限。
Unsupervised learning(非监督学习)
发现输入的良好内在表达形式。
提供输入的紧凑、低维度表达。
由已经学到的特征来提供输入的经济性高维度表达。
聚类是极度稀疏的编码形式。仅仅有一维非零特征。
神经网络的不同类型
Feed-forward neural networks (前向传播神经网络)
超过一层隐含层即为深度神经网络。
Recurrent networks(循环神经网络)
生物学上更可信。
用RNN能够给序列进行建模:
等效于很深的网络,每层隐含层相应一个时间片。
隐含层有能力记忆长时间信息。
从几何角度看感知机
Weight-space (权重空间)
每一个权重相应空间一维。
空间每一点相应某个特定权重选择。
忽略偏置项,每一个训练样本能够视为一个过原点的超平面。
把全部的训练样本都考虑进去,权重的可行解就在一个凸锥里面了。
二值神经元做不到的事
同或
循环简单模式识别
不论对于模式A或是模式B,每次把整个训练集跑完时,神经元得到的输入都是全部权值的4倍。
没有不论什么差别。也就无法区分两者之间的差异了(非循环模式能够识别)。
使用隐藏神经元
线性神经元再多层也是线性的,不会添加网络学习能力。
固定输出的非线性也不够。
学习隐藏层的权重等效于学习特征。
欢迎參与讨论并关注本博客和微博以及知乎个人主页兴许内容继续更新哦~
转载请您尊重作者的劳动,完整保留上述文字以及文章链接,谢谢您的支持!
Neural Networks for Machine Learning by Geoffrey Hinton (1~2)
标签:lan 角度 维度 反馈 训练 生物 机器学习 线性 height
原文地址:http://www.cnblogs.com/mfmdaoyou/p/7236665.html