Tensorflow是一个非常好用的deep learning框架 学完了cs231n,大概就可以写一个CNN做一下MNIST了 tensorflow具体原理可以参见它的官方文档 然后CNN的原理可以直接学习cs231n的课程。 另外这份代码本地跑得奇慢。。估计用gpu会快很多。 ...
分类:
其他好文 时间:
2017-09-07 00:55:12
阅读次数:
150
从神经网络说起:深度学习初学者不可不知的25个术语和概念(上) http://www.36dsj.com/archives/85406 1,神经元;2,权重;3,偏置:用来改变输入的范围。4,激活函数f(x):将输入信号翻译成输出信号。最常用的激活函数有Sigmoid、ReLU 和softmax。5 ...
分类:
其他好文 时间:
2017-08-30 20:46:38
阅读次数:
254
softmax其实就是输出层的一个激活函数 公式我就不写了 举个例子: 比如说输出一个二分类的结果[a,b](这里还没有使用softmax函数)(a>b) 现在的要求是想要结果中比较大的数字表示正确的分类, 正常来说一定选择a, 这样的话输出层的激活函数就是 if a > b ; result = ...
分类:
其他好文 时间:
2017-08-19 12:57:20
阅读次数:
1080
我们知道MNIST的每一张图片都表示一个数字,从0到9。我们希望得到给定图片代表每个数字的概率。比如说,我 们的模型可能推测一张包含9的图片代表数字9的概率是80%但是判断它是8的概率是5%(因为8和9都有上半部分的 小圆),然后给予它代表其他数字的概率更小的值。 这是一个使用softmax回归(s ...
分类:
其他好文 时间:
2017-08-17 12:56:10
阅读次数:
336
在阅读本文之前,建议首先阅读“简单易学的机器学习算法——word2vec的算法原理”(眼下还没公布)。掌握例如以下的几个概念: 什么是统计语言模型 神经概率语言模型的网络结构 CBOW模型和Skip-gram模型的网络结构 Hierarchical Softmax和Negative Sampling ...
分类:
编程语言 时间:
2017-08-16 17:11:29
阅读次数:
345
CBOW和Skip-gram模型 word2vec有两个模型,分别是CBOW和Skip-gram模型。这两个模型又都可以有两种优化方法。分别是 Hierarchical Softmax与Negative Sampling 。所以实现word2vec有四种方式: 2013年末,Google发布的wor ...
分类:
其他好文 时间:
2017-08-14 23:35:48
阅读次数:
456
在word2vec原理篇中,我们对word2vec的两种模型CBOW和Skip-Gram,以及两种解法Hierarchical Softmax和Negative Sampling做了总结。这里我们就从实践的角度,使用gensim来学习word2vec。 1. gensim安装与概述 gensim是一 ...
分类:
其他好文 时间:
2017-08-03 15:03:39
阅读次数:
2399
http://www.cnblogs.com/Deep-Learning/p/7073744.html http://www.cnblogs.com/lutingting/p/4768882.html http://chenrudan.github.io/blog/2016/01/09/logist ...
分类:
其他好文 时间:
2017-07-31 01:07:58
阅读次数:
138
ResNet(Residual Neural Network),微软研究院 Kaiming He等4名华人提出。通过Residual Unit训练152层深神经网络,ILSVRC 2015比赛冠军,3.57% top-5错误率,参数量比VGGNet低,效果非常突出。ResNet结构,极快加速超深神经 ...
分类:
Web程序 时间:
2017-07-29 10:17:21
阅读次数:
288
fine-tuning:把已经训练过的模型应用到新的数据集上,相当于继续训练 例子: fine-tuning: 先拿CNN在cifar100上训练,然后仅仅修改最后一层softmax的输出节点个数(100改为10),再放到cifar10上训练。 训练过程: 第一步,fine-tuning训练过程: ...
分类:
其他好文 时间:
2017-07-24 23:31:23
阅读次数:
178