【来自:http://www.cnblogs.com/denny402/p/5685909.html】 整个工作目录建在:/home/ubunt16041/caffe/examples/abc_mnist/ 再建一个mnist目录,所有的都放在mnist目录下。 (/home/ubuntu16041 ...
分类:
其他好文 时间:
2016-12-03 14:56:43
阅读次数:
263
refer to: 机器学习公开课笔记(5):神经网络(Neural Network) CS224d笔记3——神经网络 深度学习与自然语言处理(4)_斯坦福cs224d 大作业测验1与解答 CS224d Problem set 1作业 softmax: def softmax(x): assert ... ...
分类:
Web程序 时间:
2016-11-23 07:29:26
阅读次数:
388
1.经典神经网络有:2012年提出的AlexNet和2014年提出的VGGNet,结构图分别如下: 2.分类与回归: (1)分类(classfication):就是经过经过一系列的卷积层和池化层之后,再经过全连接层得到样本属于每个类的得分,再用比如softmax分类其对其进行分类; (2)回归(re ...
分类:
其他好文 时间:
2016-11-21 19:13:42
阅读次数:
289
学习mnist_softmax.py 向量:有大小和方向的量。标量:只有大小的量。 向量的写法:起点a,重点b,则写为ab上面加一个剪头。如果是在一个直角坐标系,则可以用数对的形式表示。例如(2,3) 每一手写数字样本图片都是28*28像素的图片 28*28=784,所以每个图片都可以表达为784纬 ...
分类:
其他好文 时间:
2016-11-16 15:23:06
阅读次数:
211
(1)对于深度神经网络,中间的隐层的输出必须有一个激活函数。否则多个隐层的作用和没有隐层相同。这个激活函数不一定是sigmoid,常见的有sigmoid、tanh、relu等。 (2)对于二分类问题,输出层是sigmoid函数。这是因为sigmoid函数可以把实数域光滑的映射到[0,1]空间。函数值 ...
分类:
其他好文 时间:
2016-11-12 19:21:36
阅读次数:
370
基于Caffe的Large Margin Softmax Loss的实现(中),前馈部分的实现。 ...
分类:
其他好文 时间:
2016-10-08 20:16:49
阅读次数:
201
初学神经网络算法--梯度下降、反向传播、优化(交叉熵代价函数、L2规范化) 柔性最大值(softmax)还未领会其要义,之后再说 有点懒,暂时不想把算法重新总结,先贴一个之前做过的反向传播的总结ppt 其实python更好实现些,不过我想好好学matlab,就用matlab写了 然后是算法源码,第一 ...
分类:
其他好文 时间:
2016-10-01 19:32:36
阅读次数:
279
基于Caffe的Large Margin Softmax Loss的实现,第一部分,准备工作。 ...
分类:
其他好文 时间:
2016-10-01 17:30:05
阅读次数:
229