码迷,mamicode.com
首页 >  
搜索关键字:softmax    ( 420个结果
Tensorflow框架初尝试————搭建卷积神经网络做MNIST问题
Tensorflow是一个非常好用的deep learning框架 学完了cs231n,大概就可以写一个CNN做一下MNIST了 tensorflow具体原理可以参见它的官方文档 然后CNN的原理可以直接学习cs231n的课程。 另外这份代码本地跑得奇慢。。估计用gpu会快很多。 ...
分类:其他好文   时间:2017-09-07 00:55:12    阅读次数:150
神经网络,25个术语
从神经网络说起:深度学习初学者不可不知的25个术语和概念(上) http://www.36dsj.com/archives/85406 1,神经元;2,权重;3,偏置:用来改变输入的范围。4,激活函数f(x):将输入信号翻译成输出信号。最常用的激活函数有Sigmoid、ReLU 和softmax。5 ...
分类:其他好文   时间:2017-08-30 20:46:38    阅读次数:254
softmax_通俗易懂的讲一下起到什么作用
softmax其实就是输出层的一个激活函数 公式我就不写了 举个例子: 比如说输出一个二分类的结果[a,b](这里还没有使用softmax函数)(a>b) 现在的要求是想要结果中比较大的数字表示正确的分类, 正常来说一定选择a, 这样的话输出层的激活函数就是 if a > b ; result = ...
分类:其他好文   时间:2017-08-19 12:57:20    阅读次数:1080
Softmax
我们知道MNIST的每一张图片都表示一个数字,从0到9。我们希望得到给定图片代表每个数字的概率。比如说,我 们的模型可能推测一张包含9的图片代表数字9的概率是80%但是判断它是8的概率是5%(因为8和9都有上半部分的 小圆),然后给予它代表其他数字的概率更小的值。 这是一个使用softmax回归(s ...
分类:其他好文   时间:2017-08-17 12:56:10    阅读次数:336
机器学习算法实现解析——word2vec源代码解析
在阅读本文之前,建议首先阅读“简单易学的机器学习算法——word2vec的算法原理”(眼下还没公布)。掌握例如以下的几个概念: 什么是统计语言模型 神经概率语言模型的网络结构 CBOW模型和Skip-gram模型的网络结构 Hierarchical Softmax和Negative Sampling ...
分类:编程语言   时间:2017-08-16 17:11:29    阅读次数:345
word2vec skip-gram系列2
CBOW和Skip-gram模型 word2vec有两个模型,分别是CBOW和Skip-gram模型。这两个模型又都可以有两种优化方法。分别是 Hierarchical Softmax与Negative Sampling 。所以实现word2vec有四种方式: 2013年末,Google发布的wor ...
分类:其他好文   时间:2017-08-14 23:35:48    阅读次数:456
用gensim学习word2vec
在word2vec原理篇中,我们对word2vec的两种模型CBOW和Skip-Gram,以及两种解法Hierarchical Softmax和Negative Sampling做了总结。这里我们就从实践的角度,使用gensim来学习word2vec。 1. gensim安装与概述 gensim是一 ...
分类:其他好文   时间:2017-08-03 15:03:39    阅读次数:2399
Softmax回归推到过程
http://www.cnblogs.com/Deep-Learning/p/7073744.html http://www.cnblogs.com/lutingting/p/4768882.html http://chenrudan.github.io/blog/2016/01/09/logist ...
分类:其他好文   时间:2017-07-31 01:07:58    阅读次数:138
学习笔记TF033:实现ResNet
ResNet(Residual Neural Network),微软研究院 Kaiming He等4名华人提出。通过Residual Unit训练152层深神经网络,ILSVRC 2015比赛冠军,3.57% top-5错误率,参数量比VGGNet低,效果非常突出。ResNet结构,极快加速超深神经 ...
分类:Web程序   时间:2017-07-29 10:17:21    阅读次数:288
RCNN学习笔记
fine-tuning:把已经训练过的模型应用到新的数据集上,相当于继续训练 例子: fine-tuning: 先拿CNN在cifar100上训练,然后仅仅修改最后一层softmax的输出节点个数(100改为10),再放到cifar10上训练。 训练过程: 第一步,fine-tuning训练过程: ...
分类:其他好文   时间:2017-07-24 23:31:23    阅读次数:178
420条   上一页 1 ... 26 27 28 29 30 ... 42 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!