稀疏自编码器的学习结构:稀疏自编码器Ⅰ:神经网络反向传导算法梯度检验与高级优化稀疏自编码器Ⅱ:自编码算法与稀疏性可视化自编码器训练结果Exercise: Sparse Autoencoder自编码算法与稀疏性已经讨论了神经网络在有监督学习中的应用,其中训练样本是有类别标签的(x_i,y_i)。自编码...
分类:
其他好文 时间:
2014-11-28 21:22:29
阅读次数:
588
上周写完了该代码,但是由于没有注意到softmax相关的实现故结果不对,更正后可以得到正确结果,用200幅图片训练200次可以得到90%以上的正确率,参数设置还有待于优化,另外可以考虑用多线程加速,此处目前还有问题(有待于修改,慎用)。推导请参考之前的文章http://blog.csdn.net/xuanyuansen/article/details/41214115。...
分类:
编程语言 时间:
2014-11-27 12:42:24
阅读次数:
323
ufldl出了新教程,感觉比之前的好,从基础讲起,系统清晰,又有编程实践。
在deep learning高质量群里面听一些前辈说,不必深究其他机器学习的算法,可以直接来学dl。
于是最近就开始搞这个了,教程加上matlab编程,就是完美啊。
新教程的地址是:http://ufldl.stanford.edu/tutorial/...
分类:
Web程序 时间:
2014-11-22 23:08:11
阅读次数:
740
官方Tutorial地址:http://ufldl.stanford.edu/tutorial/supervised/SoftmaxRegression/...
分类:
其他好文 时间:
2014-11-20 20:24:03
阅读次数:
289
1 Gradient Checking 说明前面我们已经实现了Linear Regression和Logistic Regression,关键在于代价函数Cost Function和其梯度Gradient的计算。在Gradient的计算中,我们一般采用推导出来的计算公式来进行计算。但是我们看到,推导出来的公式是复杂的,特别到后面的神经网络,更加复杂。这就产生了一个问题,我们如何判断我们编写的程序就...
分类:
其他好文 时间:
2014-11-20 13:46:16
阅读次数:
339
1 Vectorization 简述Vectorization 翻译过来就是向量化,各简单的理解就是实现矩阵计算。为什么MATLAB叫MATLAB?大概就是Matrix Lab,最根本的区别于其他通用语言的地方就是MATLAB可以用最直观的方式实现矩阵运算,MATLAB的变量都可以是矩阵。通过Vectorization,我们可以将代码变得极其简洁,虽然简洁带来的问题就是其他人看你代码就需要研究一番...
分类:
其他好文 时间:
2014-11-19 22:22:52
阅读次数:
370
1 Logistic Regression 简述Linear...
分类:
其他好文 时间:
2014-11-19 22:20:55
阅读次数:
207
Andrew Ng的UFLDL最近更新了,具体更新时间为9月di...
分类:
其他好文 时间:
2014-11-19 18:50:00
阅读次数:
218
原英文教程地址见:http://ufldl.stanford.edu/tutorial/supervised/MultiLayerNeuralNetworks
本文是在学习该教程时记得笔记,供参考。周末的时候利用空闲时间用python实现了一下,但是训练结果总是不对,原因尚未查清楚,如果公式推导有误请指出,谢谢!...
分类:
其他好文 时间:
2014-11-17 19:27:28
阅读次数:
282
一、引言 本材料参考Andew Ng大神的机器学习课程http://cs229.stanford.edu,以及斯坦福无监督学习UFLDL tutorialhttp://ufldl.stanford.edu/wiki/index.php/UFLDL_Tutorial 机器学习中的回归问题属于有监督.....
分类:
其他好文 时间:
2014-10-31 22:09:46
阅读次数:
221