码迷,mamicode.com
首页 > 其他好文 > 详细

rnn,cnn

时间:2015-03-03 09:51:32      阅读:167      评论:0      收藏:0      [点我收藏+]

标签:

http://nikhilbuduma.com/2015/01/11/a-deep-dive-into-recurrent-neural-networks/

按照这里的介绍,目前比较火的cnn是feed-forward的网络,而rnn是back projections。

lstm则是rnn的一种特例。

rnn在训练中会造成误差放大或者消失的现象,为了避免这个现象,引入lstm单元,保证误差是个恒量,也就是说既不会太大也不会太小。

 

rnn,cnn

标签:

原文地址:http://www.cnblogs.com/jianyingzhou/p/4310162.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!