码迷,mamicode.com
首页 > Web开发 > 详细

Neural Networks for Machine Learning by Geoffrey Hinton (1~2)

时间:2015-08-17 17:31:45      阅读:428      评论:0      收藏:0      [点我收藏+]

标签:深度学习   机器学习   模式识别   deep learning   geoffrey hinton   

机器学习能良好解决的问题

  • 识别模式
  • 识别异常
  • 预测

大脑工作模式

人类有技术分享个神经元,每个包含技术分享个权重,带宽要远好于工作站。


神经元的不同类型

Linear (线性)神经元 

技术分享


Binary threshold (二值)神经元 

技术分享



技术分享


ReLu(Rectified Linear Units) 神经元

 


技术分享

 

技术分享



Sigmoid 神经元 

技术分享

技术分享


Stochastic binary (随机二值)神经元 

技术分享


技术分享


学习任务的不同类型

Supervised learning(监督学习)

给定输入向量,学习如何预测输出向量。

例如:回归与聚类。


Reinforcement learning(增强学习)

学习如何选择动作去最大化payoff(收益)。

输出是一个动作,或者动作的序列,唯一的监督信号是一个标量反馈

难度在于反馈在很大程度上是有延时的,而且一个标量包含的信息量很有限。


Unsupervised learning(非监督学习)

发现输入的良好内在表达形式。

提供输入的紧凑、低维度表达。
由已经学到的特征来提供输入的经济性高维度表达。

聚类是极度稀疏的编码形式,只有一维非零特征



神经网络的不同类型

Feed-forward neural networks (前向传播神经网络)

超过一层隐含层即为深度神经网络。

 技术分享


Recurrent networks(循环神经网络) 

技术分享


生物学上更可信。

用RNN可以给序列进行建模:

等效于非常深的网络,每层隐含层对应一个时间片。

隐含层有能力记忆长时间信息。 

技术分享



从几何角度看感知机

Weight-space (权重空间)

每个权重对应空间一维。

空间每一点对应某个特定权重选择。

忽略偏置项,每个训练样本可以视为一个过原点的超平面。

技术分享


把所有的训练样本都考虑进去,权重的可行解就在一个凸锥里面了。 

技术分享



二值神经元做不到的事


同或 

技术分享


循环简单模式识别 

技术分享


不论对于模式A或是模式B,每次把整个训练集跑完时,神经元得到的输入都是所有权值的4倍

没有任何区别,也就无法区分两者之间的差异了(非循环模式可以识别)。


使用隐藏神经元

线性神经元再多层也是线性的,不会增加网络学习能力。

固定输出的非线性也不够。

学习隐藏层的权重等效于学习特征。


欢迎参与讨论并关注本博客微博以及知乎个人主页后续内容继续更新哦~

转载请您尊重作者的劳动,完整保留上述文字以及文章链接,谢谢您的支持!

版权声明:本文为博主原创文章,未经博主允许不得转载。

Neural Networks for Machine Learning by Geoffrey Hinton (1~2)

标签:深度学习   机器学习   模式识别   deep learning   geoffrey hinton   

原文地址:http://blog.csdn.net/ycheng_sjtu/article/details/47724949

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!