原理分析 http://www.jianshu.com/p/9dc9f41f0b29/ 代码实现 https://github.com/nicodjimenez/lstm ...
分类:
其他好文 时间:
2017-10-11 14:12:27
阅读次数:
105
前言 最基础的seq2seq模型包含了三个部分,即encoder、decoder以及连接两者的中间状态向量,encoder通过学习输入,将其编码成一个固定大小的状态向量s,继而将s传给decoder,decoder再通过对状态向量s的学习来进行输出。 图中每个box代表一个rnn单元,通常是lstm ...
分类:
Web程序 时间:
2017-10-10 11:24:29
阅读次数:
243
Long Short Term 网络—— 一般就叫做 LSTM ——是一种 RNN 特殊的类型,可以学习长期依赖信息。LSTM 由Hochreiter & Schmidhuber (1997)提出,并在近期被Alex Graves进行了改良和推广。在很多问题,LSTM 都取得相当巨大的成功,并得到了 ...
分类:
其他好文 时间:
2017-10-09 11:00:52
阅读次数:
294
开发字符OCR识别系统的原因:众所周知谷歌开源的tesseract-ocr是一套字符识别系统,其最新版本4.00采用了lstm(LongShort-TermMemory,长短时记忆网络)神经网络进行字符的训练与识别,其支持100多种语言(字符),对于比较标准的印刷体字符,其识别准确率非常高(在我们提供的..
分类:
其他好文 时间:
2017-09-29 00:35:35
阅读次数:
286
导读 目前采用编码器-解码器 (Encode-Decode) 结构的模型非常热门,是因为它在许多领域较其他的传统模型方法都取得了更好的结果。这种结构的模型通常将输入序列编码成一个固定长度的向量表示,对于长度较短的输入序列而言,该模型能够学习出对应合理的向量表示。然而,这种模型存在的问题在于:当输入序 ...
分类:
其他好文 时间:
2017-09-22 11:59:01
阅读次数:
205
循环神经网络(RNN) 人们的每次思考并不都是从零开始的。比如说你在阅读这篇文章时,你基于对前面的文字的理解来理解你目前阅读到的文字,而不是每读到一个文字时,都抛弃掉前面的思考,从头开始。你的记忆是有持久性的。 传统的神经网络并不能如此,这似乎是一个主要的缺点。例如,假设你在看一场电影,你想对电影里 ...
分类:
其他好文 时间:
2017-09-21 23:30:23
阅读次数:
217
转自: http://www.jianshu.com/p/9dc9f41f0b29,感谢分享~ Recurrent Neural Networks 人类并不是每时每刻都从一片空白的大脑开始他们的思考。在你阅读这篇文章时候,你都是基于自己已经拥有的对先前所见词的理解来推断当前词的真实含义。我们不会将所 ...
分类:
其他好文 时间:
2017-09-20 12:09:40
阅读次数:
220
距离上一篇文章,正好两个星期。 这边文章9月15日 16:30 开始写。 可能几个小时后就写完了。用一句粗俗的话说, “当你怀孕的时候,别人都知道你怀孕了, 但不知道你被日了多少回 ” ,纪念这两周的熬夜,熬夜。 因为某些原因,文章发布的有点仓促,本来应该再整理实验和代码比较合适。文章都是两个主要作 ...
分类:
其他好文 时间:
2017-09-15 20:13:32
阅读次数:
289
https://www.jiqizhixin.com/articles/2017-09-12-5 By 蒋思源2017年9月12日 09:54 时序数据经常出现在很多领域中,如金融、信号处理、语音识别和医药。传统的时序问题通常首先需要人力进行特征工程,才能将预处理的数据输入到机器学习算法中。并且这种 ...
分类:
其他好文 时间:
2017-09-15 12:06:28
阅读次数:
8683