神经网络详细介绍 https://zhuanlan.zhihu.com/p/35407734 激活函数 Sigmoid函数总结 https://blog.csdn.net/wolfblood_zzx/article/details/74453434 激活函数的比较和优缺点,sigmoid,tanh, ...
分类:
其他好文 时间:
2018-11-06 18:14:42
阅读次数:
117
Practical Advice Using Open-Source Implementation We have learned a lot of NNs and ConvNets architectures It turns out that a lot of these NN are diff... ...
分类:
其他好文 时间:
2018-11-04 17:03:04
阅读次数:
120
Wording Embedding 1. word2vec 基于只含有一个隐层的神经网络,隐层的节点数就是embedding的维度。并提出了CBOW和Skip Grams这两种语言模型。并针对词典过大而导致计算softmax分母复杂度太高的问题提出了Hierarchical Softmax和 Neg ...
分类:
编程语言 时间:
2018-11-03 11:21:45
阅读次数:
162
层级索引(hierarchical indexing) 下面创建一个Series, 在输入索引Index时,输入了由两个子list组成的list,第一个子list是外层索引,第二个list是内层索引。 示例代码: 运行结果: MultiIndex索引对象 打印这个Series的索引类型,显示是Mul ...
分类:
其他好文 时间:
2018-11-03 00:01:35
阅读次数:
202
本章介绍目标定位和目标检测(包含多目标检测)。 1. Object Localization 原始图片经过CONV卷积层后,Softmax层输出4 x 1向量,分别是: 注意,class label也可能是概率。上述四个向量分别对应pedestrain,car,motorcycle和backgrou ...
分类:
其他好文 时间:
2018-10-30 22:49:57
阅读次数:
224
Softmax在机器学习中有非常广泛的应用,但是刚刚接触机器学习的人可能对Softmax的特点以及好处并不理解,其实你了解了以后就会发现,Softmax计算简单,效果显著,非常好用。 我们先来直观看一下,Softmax究竟是什么意思 我们知道max,假如说我有两个数,a和b,并且a>b,如果取max ...
分类:
其他好文 时间:
2018-10-30 12:08:37
阅读次数:
206
import torch import torch.nn.functional as F x1= torch.Tensor( [ [1,2,3,4],[1,3,4,5],[3,4,5,6]]) y11= F.softmax(x, dim = 0) #对每一列进行softmax y12 = F.sof ...
分类:
其他好文 时间:
2018-10-29 02:02:27
阅读次数:
155
1.有DNN做的word2vec,取隐藏层到softmax层的权重为词向量,softmax层的叶子节点数为词汇表大小 2-3的最开始的词向量是随机初始化的 2.哈夫曼树:左边走 sigmoid(当前节点的词向量*当前节点的参数) 右边走 1-sigmoid(当前节点的词向量*当前节点的参数),叶子节 ...
分类:
其他好文 时间:
2018-10-25 19:28:13
阅读次数:
186
1. 前言 深度学习的威力在于其能够逐层地学习原始数据的多种表达方式。 每一层都以前一层的表达特征为基础,抽取出更加抽象,更加适合复杂的特征,然后做一些分类等任务 。 堆叠自编码器(Stacked Autoencoder,SAE)实际上就是做这样的事情,如前面的自编码器,稀疏自编码器和降噪自编码器都 ...
分类:
Web程序 时间:
2018-10-23 23:00:23
阅读次数:
278
结果: 解析: 把训练好的模型存储落地磁盘,有利于多次使用和共享,也便于当训练出现异常时能恢复模型而不是重新训练! ...
分类:
其他好文 时间:
2018-10-20 18:31:17
阅读次数:
194