码迷,mamicode.com
首页 >  
搜索关键字:ufldl    ( 148个结果
自我学习(Self-Taught Learning)
自我学习就是把稀疏自编码器与Softmax回归分类器串联起来。 稀疏编码器是用来无监督学习的,使用无标签数据。 Softmax回归分类器是有监督学习,使用标签数据。   实际生活中,我们能轻松获得大量无标签数据(如从网上随机下载海量图片) 难以获得大量有标签数据(有标签的数据库通常不会太大,而且很贵)   如果我们手头上只有少量标签数据,但是有大量的无标签数据,这是就可以采用自我...
分类:其他好文   时间:2014-08-13 13:03:36    阅读次数:493
Softmax回归——识别MINST数据库
Softmax回归就是推广版本的逻辑回归。 只不过逻辑回归是个2分类问题,而Softmax是多分类问题,仅此而已。 Softmax回归在2分类情况下就蜕化成了逻辑回归。 逻辑回归的代价函数 考虑到权重衰减,修改一下就是Softmax回归的代价函数了 这里的权重衰减项是必须的,因为原先的代价函数不是严格凸函数,有无穷个极小值。现在加了这个权重衰减项,函数变成了严格凸函数。L...
分类:数据库   时间:2014-08-12 17:10:34    阅读次数:502
ufldl学习笔记与编程作业:Feature Extraction Using Convolution,Pooling(卷积和池化抽取特征)
ufldl学习笔记与编程作业:Feature Extraction Using Convolution,Pooling(卷积和池化抽取特征) ufldl出了新教程,感觉比之前的好,从基础讲起,系统清晰,又有编程实践。 在deep learning高质量群里面听一些前辈说,不必深究其他机器学习的算法,可以直接来学dl。 于是最近就开始搞这个了,教程加上matlab编程,就是完美啊。 新教程的地址是:http://ufldl.stanford.edu/tutorial/...
分类:其他好文   时间:2014-08-12 00:41:23    阅读次数:372
主成分分析与白化预处理
上一节介绍了主成分分析应用于2维数据。现在使用高维的图像数据来试试效果。 原始图像如图1所示。 图1 每个图片都是12*12的小patch,原始数据是一个144*10000的矩阵x。 在使用了PCA旋转之后,可以检查一下此时的协方差矩阵是否已经成功变成对角阵了,如图2所示。 avg=mean(x,1); x=x-repmat(avg,size(x,1),1); xRot = ze...
分类:其他好文   时间:2014-08-11 21:28:52    阅读次数:429
主成分分析(PCA)——以2维图像为例
这一节不论是思想还是实现都比较容易。 主成分分析(PCA)就是模式识别里面说的K-L变换,思想是完全相同的。 详情可见我的博文:特征选择(三)-K-L变换 这里简单介绍几个概念。顺便贴出代码和效果图。 xRot = zeros(size(x)); xRot=u'*x; figure(2); scatter(xRot(1, :), xRot(2, :)); title('xRot');得到原...
分类:其他好文   时间:2014-08-11 18:04:42    阅读次数:309
矢量化编程——以MNIST为例
矢量化编程就是用矢量运算取代所有的显式for循环。 上一节所用的是512*512*10的数据集很小,我们取的patch很小(8*8),学来的特征很少(25),而我又注释掉了梯度校验(偷懒),所以程序用了1分钟就跑完了(i5处理器)。   但实际上我们遇到的问题规模比这个打太多了,稍微大一点的数据集比如说MNIST,这个数据库是另外一个更大的手写体数据库NIST的子集,包含60000个训练例子...
分类:其他好文   时间:2014-08-11 12:10:22    阅读次数:323
ufldl学习笔记与编程作业:Multi-Layer Neural Network(多层神经网络+识别手写体编程)
ufldl学习笔记与编程作业:Multi-Layer Neural Network(多层神经网络+识别手写体编程) ufldl出了新教程,感觉比之前的好,从基础讲起,系统清晰,又有编程实践。 在deep learning高质量群里面听一些前辈说,不必深究其他机器学习的算法,可以直接来学dl。 于是最近就开始搞这个了,教程加上matlab编程,就是完美啊。 新...
分类:Web程序   时间:2014-08-10 01:47:29    阅读次数:339
稀疏自编码器及其实现——如何搞基
自编码器是什么? 自编码器本身就是一种BP神经网络。它是一种无监督学习算法。 我们都知道神经网络可以从任意精度逼近任意函数,这里我们让神经网络目标值等于输出值x,也就是模拟一个恒等函数: 太无聊了,是吗?输入等于输出,这网络有什么意义?但是,当我们把自编码神经网络加入某些限制,事情就发生了变化。如图1所示,这就是一个基本的自编码神经网络,可以看到隐含层节点数量要少于输入层节点数量。 ...
分类:其他好文   时间:2014-08-09 11:37:57    阅读次数:442
ufldl学习笔记与编程作业:Softmax Regression(vectorization加速)
ufldl学习笔记与编程作业:Softmax Regression(vectorization加速) ufldl出了新教程,感觉比之前的好,从基础讲起,系统清晰,又有编程实践。 在deep learning高质量群里面听一些前辈说,不必深究其他机器学习的算法,可以直接来学dl。 于是最近就开始搞这个了,教程加上matlab编程,就是完美啊。 新教程的地址是:http://ufldl.stanford.edu/tutorial/ 本节是对http://blog.csdn.net/lingerlanlan/...
分类:其他好文   时间:2014-08-07 23:08:45    阅读次数:481
ufldl学习笔记与编程作业:Softmax Regression(softmax回归)
ufldl学习笔记与编程作业:Softmax Regression(softmax回归) ufldl出了新教程,感觉比之前的好,从基础讲起,系统清晰,又有编程实践。 在deep learning高质量群里面听一些前辈说,不必深究其他机器学习的算法,可以直接来学dl。 于是最近就开始搞这个了,教程加上matlab编程,就是完美啊。 新教程的地址是:http://ufldl.stanford.edu/tutorial/...
分类:其他好文   时间:2014-08-07 03:06:28    阅读次数:290
148条   上一页 1 ... 12 13 14 15 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!