码迷,mamicode.com
首页 >  
搜索关键字:lstm    ( 378个结果
Python中利用LSTM模型进行时间序列预测分析 - 预测爱尔兰的电力消耗
此示例中,神经网络用于使用2011年4月至2013年2月期间的数据预测都柏林市议会公民办公室的能源消耗。 每日数据是通过总计每天提供的15分钟间隔的消耗量来创建的。 LSTM简介 LSTM(或长期短期存储器网络)允许分析具有长期依赖性的顺序或有序数据。当涉及到这项任务时,传统的神经网络不足,在这方面 ...
分类:编程语言   时间:2019-05-24 18:51:27    阅读次数:158
LSTM 详解
1、定义:什么是LSTM? 首先,我们知道最基础的神经网络是【全连接神经网络】,keras里为,dense层。Dense就是常用的全连接层,所实现的运算是output = activation(dot(input, kernel)+bias)。其中activation是逐元素计算的激活函数,kern ...
分类:其他好文   时间:2019-05-14 14:43:37    阅读次数:741
中文文本分类之TextRNN
RNN模型由于具有短期记忆功能,因此天然就比较适合处理自然语言等序列问题,尤其是引入门控机制后,能够解决长期依赖问题,捕获输入样本之间的长距离联系。本文的模型是堆叠两层的LSTM和GRU模型,模型的结构为:LSTM(GRU)—dropout—LSTM(GRU)—dropout—全连接层—输出层,比较 ...
分类:其他好文   时间:2019-05-09 13:50:15    阅读次数:1162
keras实例学习-双向LSTM进行imdb情感分类
源码:https://github.com/keras-team/keras/blob/master/examples/imdb_bidirectional_lstm.py 及keras中文文档 1.imdb数据集 数据集来自 IMDB 的 25,000 条电影评论,以情绪(正面/负面)标记。评论已 ...
分类:数据库   时间:2019-04-08 13:14:20    阅读次数:552
LSTM(Long Short Term Memory)
长时依赖是这样的一个问题,当预测点与依赖的相关信息距离比较远的时候,就难以学到该相关信息。例如在句子”我出生在法国,……,我会说法语“中,若要预测末尾”法语“,我们需要用到上下文”法国“。理论上,递归神经网络是可以处理这样的问题的,但是实际上,常规的递归神经网络并不能很好地解决长时依赖,好的是LST ...
分类:其他好文   时间:2019-04-04 17:30:28    阅读次数:229
算法工程师<深度学习基础>
<深度学习基础> 卷积神经网络,循环神经网络,LSTM与GRU,梯度消失与梯度爆炸,激活函数,防止过拟合的方法,dropout,batch normalization,各类经典的网络结构,各类优化方法 1、卷积神经网络工作原理的直观解释 https://www.zhihu.com/question/ ...
分类:编程语言   时间:2019-03-25 17:45:58    阅读次数:188
深度学习原理与框架-递归神经网络-RNN_exmaple(代码) 1.rnn.BasicLSTMCell(构造基本网络) 2.tf.nn.dynamic_rnn(执行rnn网络) 3.tf.expand_dim(增加输入数据的维度) 4.tf.tile(在某个维度上按照倍数进行平铺迭代) 5.tf.squeeze(去除维度上为1的维度)
1. rnn.BasicLSTMCell(num_hidden) # 构造单层的lstm网络结构 参数说明:num_hidden表示隐藏层的个数 2.tf.nn.dynamic_rnn(cell, self.x, tf.float32) # 执行lstm网络,获得state和outputs 参数说明 ...
分类:其他好文   时间:2019-03-18 01:38:38    阅读次数:485
深度学习原理与框架-递归神经网络-RNN网络基本框架(代码?) 1.rnn.LSTMCell(生成单层LSTM) 2.rnn.DropoutWrapper(对rnn进行dropout操作) 3.tf.contrib.rnn.MultiRNNCell(堆叠多层LSTM) 4.mlstm_cell.zero_state(state初始化) 5.mlstm_cell(进行LSTM求解)
问题:LSTM的输出值output和state是否是一样的 1. rnn.LSTMCell(num_hidden, reuse=tf.get_variable_scope().reuse) # 构建单层的LSTM网络 参数说明:num_hidden表示隐藏层的个数,reuse表示LSTM的参数进行复 ...
分类:移动开发   时间:2019-03-17 13:39:50    阅读次数:1649
Keras + LSTM 做回归demo 2
接上回, 这次做了一个多元线性回归 这里贴一下代码 ...
分类:其他好文   时间:2019-03-14 15:18:36    阅读次数:502
循环神经网络-LSTM进阶
基础的LSTM模型,单隐层,隐层单神经元,而实际中一般需要更为复杂的网络结构, 下面借用手写数字的经典案例构造比较复杂的LSTM模型,并用代码实现。 单隐层,隐层多神经元 上面的网络大概是这样 x1 x2 其实应该是 xt1 xt2 多层隐层,隐层多节点 其他代码雷同 ...
分类:其他好文   时间:2019-03-08 16:37:06    阅读次数:230
378条   上一页 1 ... 11 12 13 14 15 ... 38 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!