码迷,mamicode.com
首页 >  
搜索关键字:稀疏编码    ( 35个结果
稀疏编码学习笔记(二)L2范数
L2范数 除了L1范数,还有一种更受宠幸的规则化范数是L2范数: ||W||2。它也不逊于L1范数,它有两个美称,在回归里面,有人把有它的回归叫“岭回归”(Ridge Regression),有人也叫它“权值衰减weight decay”。这用的很多吧,因为它的强大功效是改善机器学习里面一个非常.....
分类:其他好文   时间:2014-08-27 12:46:08    阅读次数:377
从自我学习到深层网络——建立你的第1个深度网络分类器
自我学习就是稀疏编码器串联一个Softmax分类器,上一节看到,训练400次,准确率为98.2% 在此基础上,我们可以搭建我们的第一个深度网络:栈式自编码(2层)+Softmax分类器   简单地说,我们把稀疏自编码器的输出作为更高一层稀疏自编码器的输入。 和自我学习很像,似乎就是新加了一层,但是其实不然: 新技巧在于,我们这里有个微调的过程,让残差从最高层向输入层传递,微调整个网络权重...
分类:其他好文   时间:2014-08-16 12:37:40    阅读次数:220
自我学习(Self-Taught Learning)
自我学习就是把稀疏自编码器与Softmax回归分类器串联起来。 稀疏编码器是用来无监督学习的,使用无标签数据。 Softmax回归分类器是有监督学习,使用标签数据。   实际生活中,我们能轻松获得大量无标签数据(如从网上随机下载海量图片) 难以获得大量有标签数据(有标签的数据库通常不会太大,而且很贵)   如果我们手头上只有少量标签数据,但是有大量的无标签数据,这是就可以采用自我...
分类:其他好文   时间:2014-08-13 13:03:36    阅读次数:493
UFLDL 教程答案 稀疏编码与softmax篇的答案已经传到资源,大家可以免费下载~
UFLDL 教程答案 稀疏编码篇与softmax篇的答案已经传到资源,大家可以免费下载~ 另外,关于资源里面描述的低效率的代码的问题,逗比的博主已经找到了解决方案,大家需要修改两个文件的两处代码,绿色是需要被注释的 softmaxCos.m文件 %% 非向量化 %for i = 1 : numCases %    thetagrad = thetagrad + (groundTruth(...
分类:其他好文   时间:2014-07-30 09:59:23    阅读次数:696
Deep Learning 系列(4):稀疏编码(sparse coding)和主成分分析(ICA)
一直犹豫稀疏编码怎么写,来来回回看了好几遍的UFLDL。因为这不仅是DL深度学习的重要概念,也是我这段时间一直在研究的stacked ISA 深度特征学习的支柱。 这章将主要介绍一下稀疏编码的主要概念,及主成分分析的方法。 稀疏编码算法是一种无监督(unsupervised)学习方法,它用来寻找一组“超完备”基向量来更高效地表示样本数据。(设x的维数为n,则k>n) 超完备基能更有效地找...
分类:其他好文   时间:2014-07-26 02:23:36    阅读次数:614
35条   上一页 1 2 3 4
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!