参考资料: 算法部分: standfor, ufldl : http://ufldl.stanford.edu/wiki/index.php/UFLDL_Tutorial 一文弄懂BP:https://www.cnblogs.com/charlotte77/p/5629865.html 代码部分: ...
分类:
其他好文 时间:
2018-12-06 20:18:55
阅读次数:
158
最近在看深度学习的东西,一开始看的吴恩达的UFLDL教程,有中文版就直接看了,后来发现有些地方总是不是很明确,又去看英文版,然后又找了些资料看,才发现,中文版的译者在翻译的时候会对省略的公式推导过程进行补充,但是补充的又是错的,难怪觉得有问题。反向传播法其实是神经网络的基础了,但是很多人在学的时候总 ...
分类:
其他好文 时间:
2018-09-28 15:21:25
阅读次数:
146
最近在看深度学习的东西,一开始看的吴恩达的UFLDL教程,有中文版就直接看了,后来发现有些地方总是不是很明确,又去看英文版,然后又找了些资料看,才发现,中文版的译者在翻译的时候会对省略的公式推导过程进行补充,但是补充的又是错的,难怪觉得有问题。反向传播法其实是神经网络的基础了,但是很多人在学的时候总 ...
分类:
编程语言 时间:
2018-03-08 10:38:07
阅读次数:
223
Deep Learning(深度学习): ufldl的2个教程(这个没得说,入门绝对的好教程,Ng的,逻辑清晰有练习):一 ufldl的2个教程(这个没得说,入门绝对的好教程,Ng的,逻辑清晰有练习):二 Bengio团队的deep learning教程,用的theano库,主要是rbm系列,搞py ...
分类:
其他好文 时间:
2018-03-02 14:49:20
阅读次数:
232
对自编码器的理解: 对于给定的原始输入x,让网络自动找到一种编码方式(特征提取,原始数据的另一种表达),使其解码后的输出x'尽可能复现原始输入x。 知乎参考:https://www.zhihu.com/question/41490383 UFLDL : http://deeplearning.sta ...
分类:
Web程序 时间:
2017-11-07 20:48:12
阅读次数:
322
SoftMax回归 http://ufldl.stanford.edu/wiki/index.php/Softmax%E5%9B%9E%E5%BD%92 我们的训练集由 个已标记的样本构成: ,其中输入特征。(我们对符号的约定如下:特征向量 的维度为 ,其中 对应截距项 。) 由于 logistic ...
分类:
其他好文 时间:
2017-09-22 17:41:30
阅读次数:
224
本文主要是学习下Linear Decoder已经在大图片中经常采用的技术convolution和pooling,分别参考网页http://deeplearning.stanford.edu/wiki/index.php/UFLDL_Tutorial中对应的章节部分。 Linear Decoders: ...
分类:
其他好文 时间:
2017-09-21 11:23:24
阅读次数:
153
throwing away too much information http://deeplearning.net/tutorial/lenet.html http://ufldl.stanford.edu/tutorial/supervised/Pooling/ ...
分类:
其他好文 时间:
2017-09-19 15:12:02
阅读次数:
187
http://ufldl.stanford.edu/tutorial/supervised/SoftmaxRegression/ http://ufldl.stanford.edu/tutorial/supervised/ExerciseSupervisedNeuralNetwork/ http:/ ...
分类:
其他好文 时间:
2017-08-29 23:48:40
阅读次数:
274
1:softmax回归 当p(y|x,theta)满足多项式分布,通过GLM对其进行建模就能得到htheta(x)关于theta的函数,将其称为softmax回归。教程中已经给了cost及gradient的求法。须要注意的是一般用最优化方法求解參数theta的时候,採用的是贝叶斯学派的思想,须要加上 ...
分类:
其他好文 时间:
2017-07-21 13:26:33
阅读次数:
177