标签:
http://nikhilbuduma.com/2015/01/11/a-deep-dive-into-recurrent-neural-networks/
按照这里的介绍,目前比较火的cnn是feed-forward的网络,而rnn是back projections。
lstm则是rnn的一种特例。
rnn在训练中会造成误差放大或者消失的现象,为了避免这个现象,引入lstm单元,保证误差是个恒量,也就是说既不会太大也不会太小。
标签:
原文地址:http://www.cnblogs.com/jianyingzhou/p/4310162.html