标签:init lis 代码 rnn 网络层 解决 nump sha tail
有一种方法是有两个input,一个input通过网络最终达到全连接层,另一个input直接接一个全连接网络,神经元数是特征数,这两个可以进行一个concat。 当然了也可以直接输入特征concat到全连接层,但是据说前者效果要好一点。
在我的一个模型中(网络层次较浅),我用word2vec词向量的效果比之用随机词向量然后更新的效果要远远远远远远的不如!!!很绝望,发现word2vec词向量生成tensor又不能更新,不能微调!解决办法有两个:
参考文章:https://blog.csdn.net/taoqick/article/details/79475350
简单来说如果是单层gru或者单层普通rnn,那么output和state是一样的;但如果是lstm cell ,那么state是包含c和h的,而output只有h,那么我们一般在接下一层网络进行后面的处理的时候是用的它的h,这样的话用output也是一样的。再看,如果是多层的cell,那么用output来代表h,其实也行,但是这个h是最上层的cell输出的h!
有的时候比如说tensor的shape是(A,B,C)
这时候我想要将其shape转化为(A,C,B)
用到一个函数,tf.transpose()
参考文章:https://blog.csdn.net/banana1006034246/article/details/75126815
将(A,B,C)的tensor转化为(A,C,B)的tensor
out = tf.transpose(input,perm=[0,2,1])
更新于2019-7-23:
实在扛不住tf2.0的诱惑了,准备入坑,这边也会记录一些tf2.0中会遇到的问题。
这不是很简单吗? a.eval()就转化成a的list形式了啊
no,tf2.0可以使用动态计算图,当使用动态计算图的时候,你可能会得到一个EagerTensor结果,这个东西是不能用eval()方法转化成list的。
需要用 a.numpy() 的方法转化成list。
tensorflow与神经网络中遇到的问题与解决方法【持续更新】
标签:init lis 代码 rnn 网络层 解决 nump sha tail
原文地址:https://www.cnblogs.com/zhouxiaosong/p/11113747.html