今天连看三篇论文,不是很细致地看,也没有具体去实现,只是大概明白了一些新思路。这三篇论文,一篇概述了Decoder-Encoder模型,一篇延伸这个模型,首次提出了Attention机制,最后一篇详细阐述了LSTM和GRU的工作机理。读完之后,我对机器翻译这个领域,还有LSTM的应用,有了更深的认识 ...
分类:
编程语言 时间:
2017-07-07 13:05:50
阅读次数:
291
RNNs在股票价格预测的应用 前言 RNN和LSTMs在时态数据上表现特别好,这就是为什么他们在语音识别上是有效的。我们通过前25天的开高收低价格,去预测下一时刻的前收盘价。每个时间序列通过一个高斯分布和2层LSTM模型训练数据。文章分为两个版块,外汇价格预测和每日盘中价格预测(30分钟、15分钟、 ...
分类:
其他好文 时间:
2017-07-03 12:27:26
阅读次数:
270
CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的内部网络结构有什么区别? DNN以神经网络为载体,重在深度,可以说是一个统称。RNN,回归型网络,用于序列数据,并且有了一定的记忆效应,辅之以lstm。CNN应该侧重空间映射,图像数据尤为贴合此场景。 DNN以神经网络为载体,重 ...
分类:
其他好文 时间:
2017-06-28 18:55:27
阅读次数:
201
学习Tensorflow的LSTM的RNN例子 基于TensorFlow一次简单的RNN实现 极客学院-递归神经网络 如何使用TensorFlow构建、训练和改进循环神经网络 ...
分类:
其他好文 时间:
2017-06-13 11:24:55
阅读次数:
257
目前智能QA系统都是基于seq2seq模型来开发(如google),seq2seq模型基于one-hot的词嵌入,每个词用一个数字代替不足以表示词与词之间的关系,word2vec通过多维向量来做词嵌入,能够表示出词之间的关系,比如:男-女≈王子-公主。基于seq2seq的思想,利用多维词向量来实现模... ...
分类:
其他好文 时间:
2017-06-09 23:35:54
阅读次数:
1165
理解委托最重要的一点是:委托是一个函数指针,应该将一个函数赋给它。这个函数可以是一个函数名,或一个临时定义的匿名函数,如上。 ...
自然语言处理 (NLP)问题都是序列化的。前馈神经网络,在单次前馈中对到来数据处理,假定所有输入独立,模式丢失。循环神经网络(recurrent neural network,RNN)对时间显式建模神经网络。RNN神经元可接收其他神经元加权输入。RNN神经元可与更高层建立连接,也可与更低层建立连接。 ...
分类:
编程语言 时间:
2017-05-31 10:21:18
阅读次数:
231
毕业后就从事了现在这份工作,算一算已经10多年了。日常工作内容包括软件开发、系统维护、网络搭建、软件平台应用等,算是专业对口,平时空闲时间也比较多。人已近中年,却还有一颗躁动不安的心,始终想在技术上再进一步。接触Machine Learning 已经有一段时间了, 对KNN、RNN、LSTM等流行算 ...
分类:
其他好文 时间:
2017-05-25 00:04:48
阅读次数:
306
https://medium.com/towards-data-science/lstm-by-example-using-tensorflow-feb0c1968537 在深度学习中,循环神经网络(RNN)是一系列善于从序列数据中学习的神经网络。由于对长期依赖问题的鲁棒性,长短期记忆(LSTM)是 ...
分类:
其他好文 时间:
2017-05-22 13:32:02
阅读次数:
272