Refer to : https://medium.com/@andre.holzner/lstm-cells-in-pytorch-fab924a78b1c http://colah.github.io/posts/2015-08-Understanding-LSTMs/ LSTM cells i ...
分类:
其他好文 时间:
2018-07-01 10:27:37
阅读次数:
331
Refer to : The Unreasonable Effectiveness of Recurrent Neural Networks Recurrent Neural Networks Sequences. Depending on your background you might be ...
分类:
Web程序 时间:
2018-07-01 10:26:28
阅读次数:
190
这只是初步的理解,后面会根据项目的进行,深入理解,后面会继续更新 ...
分类:
其他好文 时间:
2018-06-30 01:00:25
阅读次数:
415
导语 在NLP领域,语义相似度的计算一直是个难题:搜索场景下Query和Doc的语义相似度、feeds场景下Doc和Doc的语义相似度、机器翻译场景下A句子和B句子的语义相似度等等。本文通过介绍DSSM、CNN DSSM、LSTM DSSM等深度学习模型在计算语义相似度上的应用,希望给读者带来帮助。 ...
分类:
其他好文 时间:
2018-06-26 16:10:36
阅读次数:
334
Siamese Network简介 Siamese Network 是一种神经网络的框架,而不是具体的某种网络,就像seq2seq一样,具体实现上可以使用RNN也可以使用CNN。 简单的说,Siamese Network用于评估两个输入样本的相似度。网络的框架如下图所示 Siamese Networ ...
分类:
Web程序 时间:
2018-06-21 22:33:44
阅读次数:
2355
https://zhuanlan.zhihu.com/p/27112144 1.LSTM对于非平稳数据的预测效果没有平稳数据好 2.神经网络的过拟合:在训练神经网络过程中,“过拟合”是一项尽量要避免的事。神经网络“死记”训练数据。过拟合意味着模型在训练数据的表现会很好,但对于训练以外的预测则效果很差 ...
分类:
其他好文 时间:
2018-06-21 22:27:35
阅读次数:
127
Tensorflow[LSTM] 0.背景 通过对《tensorflow machine learning cookbook》第9章第3节"implementing_lstm"进行阅读,发现如下形式可以很方便的进行训练和预测,通过类进行定义,并利用了tf中的变量重用的能力,使得在训练阶段模型的许多变 ...
分类:
其他好文 时间:
2018-06-20 21:15:47
阅读次数:
203
1. LSTM 大学之道,在明明德的博客: (译)理解 LSTM 网络 (Understanding LSTM Networks by colah) TensorFlow入门(五)多层 LSTM 通俗易懂版 TensorFlow入门(三)多层 CNNs 实现 mnist分类 另一个博客,写的代码很好 ...
分类:
其他好文 时间:
2018-06-17 16:58:18
阅读次数:
196
RNN RNN(Recurrent Neural Networks,循环神经网络)不仅会学习当前时刻的信息,也会依赖之前的序列信息。由于其特殊的网络模型结构解决了信息保存的问题。所以RNN对处理时间序列和语言文本序列问题有独特的优势。递归神经网络都具有一连串重复神经网络模块的形式。在标准的RNNs中 ...
分类:
其他好文 时间:
2018-06-16 16:17:30
阅读次数:
234
最近尝试了一下中文的情感分析。 主要使用了Glove和LSTM。语料数据集采用的是中文酒店评价语料 1、首先是训练Glove,获得词向量(这里是用的300d)。这一步使用的是jieba分词和中文维基。 2、将中文酒店评价语料进行清洗,并分词。分词后转化为词向量的表示形式。 3、使用LSTM网络进行训 ...
分类:
其他好文 时间:
2018-06-14 18:28:20
阅读次数:
889