码迷,mamicode.com
首页 >  
搜索关键字:ufldl    ( 148个结果
【ufldl tutorial】Convolution and Pooling
卷积的实现:对于每幅图像,每个filter,首先从W中取出对应的filter:filter = squeeze(W(:,:,filterNum));接下来startercode里面将filter旋转90度并且取出image:% Flip the feature matrix because of t...
分类:其他好文   时间:2015-05-25 13:01:13    阅读次数:282
【ufldl tutorial】Softmax Regression
今天太长姿势了,什么叫懂了也写不出代码说的不就是我吗,就那么几行代码居然叽叽歪歪写了一个小时。首先exercise要实现的是softmax的cost function和gradient,如下图:(1)(2)(3)下面就来仔细分析怎么不借助for循环高效的实现上面三个函数。首先P是一个关键,因为在J和...
分类:其他好文   时间:2015-05-23 16:43:39    阅读次数:187
深度学习入门教程UFLDL学习实验笔记三:主成分分析PCA与白化whitening
主成分分析与白化是在做深度学习训练时最常见的两种预处理的方法,主成分分析是一种我们用的很多的降维的一种手段,通过PCA降维,我们能够有效的降低数据的维度,加快运算速度。而白化就是为了使得每个特征能有同样的方差,降低相邻像素的相关性。 主成分分析PCA PCA算法可以将输入向量转换为一个维数低很多的近...
分类:其他好文   时间:2015-05-21 21:46:23    阅读次数:482
Caffe4——计算图像均值
Caffe4——计算图像均值均值削减是数据预处理中常见的处理方式,按照之前在学习ufldl教程PCA的一章时,对于图像介绍了两种:第一种常用的方式叫做dimension_mean(个人命名),是依据输入数据的维度,每个维度内进行削减,这个也是常见的做法;第二种叫做per_image_mean,ufl...
分类:其他好文   时间:2015-05-14 16:04:03    阅读次数:4348
深度学习入门教程UFLDL学习实验笔记二:使用向量化对MNIST数据集做稀疏自编码
今天来做UFLDL的第二个实验,向量化。我们都知道,在matlab里面基本上如果使用for循环,程序是会慢的一逼的(可以说基本就运行不下去)所以在这呢,我们需要对程序进行向量化的处理,所谓向量化就是将matlab里面所有的for循环用矩阵运算的方法实现,在这里呢,因为之前的实验我已经是按照向量化的形...
分类:其他好文   时间:2015-05-13 18:35:31    阅读次数:607
深度学习入门教程UFLDL学习实验笔记一:稀疏自编码器
UFLDL即(unsupervised feature learning & deep learning)。这是斯坦福网站上的一篇经典教程。顾名思义,你将在这篇这篇文章中学习到无监督特征学习和深度学习的主要观点。 UFLDL全文出处在这:http://ufldl.stanford.edu/wiki/...
分类:其他好文   时间:2015-05-12 22:46:35    阅读次数:336
cnn softmax regression bp求导
内容来自ufldl,代码参考自tornadomeet的cnnCost.m1.Forward PropagationconvolvedFeatures = cnnConvolve(filterDim, numFilters, images, Wc, bc); %对于第一个箭头activationsPo...
分类:其他好文   时间:2015-05-08 12:32:41    阅读次数:409
machine learning比赛系列———2015阿里巴巴天池移动推荐
本以为鄙人学完Andrew Ng的coursera的课还有UFLDL的教程,已经可以自居一隅了,没想到这次参加比赛着实让我长了见识。 下载完数据,一看,OMG!500多M(原谅我见识少)。刚开始啥也不懂,用Excel打开后删除掉其中两列,保存后就没再多看(后来才发现居然就剩30多m,坑爹的Excel)。然后就用这30多兆的数据进行处理,结果可想而知:总结一下: 不会SQL:导致在前期数据删选的时候...
分类:移动开发   时间:2015-04-24 16:21:26    阅读次数:149
UFLDL课程学习(二)
章节地址:http://ufldl.stanford.edu/tutorial/supervised/LogisticRegression/章节名称:逻辑回归 (Logisitic Regression)第二章的主要问题是什么?是内存不够,艹Error using freadOut of memor...
分类:其他好文   时间:2015-04-23 15:01:53    阅读次数:132
Deep Learning by Andrew Ng --- Softmax regression
这是UFLDL的编程练习。Weight decay(Softmax 回归有一个不寻常的特点:它有一个“冗余”的参数集)后的cost function和梯度函数: cost function:J(θ)=?1m??∑i=1m∑j=1k1{y(i)=j}logeθTjx(i)∑kl=1eθTlx(i)??+λ2∑i=1k∑j=0nθ2ij\begin{align} J(\theta) = - \frac{...
分类:其他好文   时间:2015-04-04 16:47:26    阅读次数:402
148条   上一页 1 ... 8 9 10 11 12 ... 15 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!