码迷,mamicode.com
首页 > 其他好文 > 详细

Stanford NLP 第六课: Long Short Term Memory

时间:2018-06-05 23:18:04      阅读:258      评论:0      收藏:0      [点我收藏+]

标签:short   mem   term   分享图片   info   .com   src   inf   表示   

RNN存在着梯度消失的问题, 难以学习长期的依赖关系。如何解决RNN的梯度消失问题? Long  Short Term Memory (LSTM) 就是解决这个问题的。

技术分享图片

上图是LSTM的一个整体结构。下面是LSTM的细节。下面的整个模块可以看成是一个Memory Cell。Cell的输入有三个, C_t-1, h_t-1, x_t, 输出有两个C_t, h_t; 三个门控组件。输入门i_t, 遗忘门f_t, 输出门o_t。 新的记忆 c^_t,  空心圆圈表示元素级相乘。

技术分享图片

技术分享图片

 

一个更加细节一点的示意图。

技术分享图片

 

LSTM是怎么解决梯度消失的问题的?(明天继续)

 

Stanford NLP 第六课: Long Short Term Memory

标签:short   mem   term   分享图片   info   .com   src   inf   表示   

原文地址:https://www.cnblogs.com/yangkang77/p/9142237.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!