码迷,mamicode.com
首页 >  
搜索关键字:softmax    ( 420个结果
caffe-mnist别手写数字
【来自:http://www.cnblogs.com/denny402/p/5685909.html】 整个工作目录建在:/home/ubunt16041/caffe/examples/abc_mnist/ 再建一个mnist目录,所有的都放在mnist目录下。 (/home/ubuntu16041 ...
分类:其他好文   时间:2016-12-03 14:56:43    阅读次数:263
CS224d assignment 1【Neural Network Basics】
refer to: 机器学习公开课笔记(5):神经网络(Neural Network) CS224d笔记3——神经网络 深度学习与自然语言处理(4)_斯坦福cs224d 大作业测验1与解答 CS224d Problem set 1作业 softmax: def softmax(x): assert ... ...
分类:Web程序   时间:2016-11-23 07:29:26    阅读次数:388
卷积神经网络_(2)_分类与回归_几类经典网络简介
1.经典神经网络有:2012年提出的AlexNet和2014年提出的VGGNet,结构图分别如下: 2.分类与回归: (1)分类(classfication):就是经过经过一系列的卷积层和池化层之后,再经过全连接层得到样本属于每个类的得分,再用比如softmax分类其对其进行分类; (2)回归(re ...
分类:其他好文   时间:2016-11-21 19:13:42    阅读次数:289
tensorflow学习笔记
学习mnist_softmax.py 向量:有大小和方向的量。标量:只有大小的量。 向量的写法:起点a,重点b,则写为ab上面加一个剪头。如果是在一个直角坐标系,则可以用数对的形式表示。例如(2,3) 每一手写数字样本图片都是28*28像素的图片 28*28=784,所以每个图片都可以表达为784纬 ...
分类:其他好文   时间:2016-11-16 15:23:06    阅读次数:211
神经网络为什么要用sigmoid函数?为什么要映射到0-1之间?
(1)对于深度神经网络,中间的隐层的输出必须有一个激活函数。否则多个隐层的作用和没有隐层相同。这个激活函数不一定是sigmoid,常见的有sigmoid、tanh、relu等。 (2)对于二分类问题,输出层是sigmoid函数。这是因为sigmoid函数可以把实数域光滑的映射到[0,1]空间。函数值 ...
分类:其他好文   时间:2016-11-12 19:21:36    阅读次数:370
Softmax回归(使用tensorflow)
...
分类:其他好文   时间:2016-10-15 02:16:50    阅读次数:230
基于Caffe的Large Margin Softmax Loss的实现(中)
基于Caffe的Large Margin Softmax Loss的实现(中),前馈部分的实现。 ...
分类:其他好文   时间:2016-10-08 20:16:49    阅读次数:201
Softmax回归(使用theano)
...
分类:其他好文   时间:2016-10-07 01:25:11    阅读次数:359
matlab处理手写识别问题
初学神经网络算法--梯度下降、反向传播、优化(交叉熵代价函数、L2规范化) 柔性最大值(softmax)还未领会其要义,之后再说 有点懒,暂时不想把算法重新总结,先贴一个之前做过的反向传播的总结ppt 其实python更好实现些,不过我想好好学matlab,就用matlab写了 然后是算法源码,第一 ...
分类:其他好文   时间:2016-10-01 19:32:36    阅读次数:279
基于Caffe的Large Margin Softmax Loss的实现(上)
基于Caffe的Large Margin Softmax Loss的实现,第一部分,准备工作。 ...
分类:其他好文   时间:2016-10-01 17:30:05    阅读次数:229
420条   上一页 1 ... 32 33 34 35 36 ... 42 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!