激活函数: 1)sigmoid函数 - 值域(0,1) 2)tanh函数 - 值域(-1,1) 两个函数都扩展至向量表示: - 网络层数 - 第l层的节点数(不包括偏置单元) - 第l层第j单元 与 第l+1层第i单元之间的连接参数,大小为 - 第l+1层第i单元的偏置项 - 第l层的激活值 - 第 ...
分类:
其他好文 时间:
2016-04-21 23:40:59
阅读次数:
360
感谢博临天下,笔记太好,我就直接搬过来再添加了。http://www.cnblogs.com/fanyabo/p/4060498.html 一、引言 本材料参考Andrew Ng大神的机器学习课程 http://cs229.stanford.edu,以及斯坦福无监督学习UFLDL tutorial ...
分类:
编程语言 时间:
2016-04-10 21:24:23
阅读次数:
499
Exercise:PCA and Whitening
第0步:数据准备
UFLDL下载的文件中,包含数据集IMAGES_RAW,它是一个512*512*10的矩阵,也就是10幅512*512的图像
(a)载入数据
利用sampleIMAGESRAW函数,从IMAGES_RAW中提取numPatches个图像块儿,每个图像块儿大小为patchSize,并将提取到的图像块儿按列存放,分别存放在...
分类:
其他好文 时间:
2016-04-01 18:18:38
阅读次数:
274
关于Andrew Ng的machine learning课程中,有一章专门讲解逻辑回归(Logistic回归),具体课程笔记见另一篇文章。
下面,对Logistic回归做一个简单的小结:
给定一个待分类样本x,利用Logistic回归模型判断该输入样本的类别,需要做的就是如下两步:
① 计算逻辑回归假设函数的取值hθ(x),其中n是样本的特征维度
② 如果hθ(x)>=0.5,则x输入...
分类:
其他好文 时间:
2016-04-01 18:18:17
阅读次数:
282
昨晚上和牛老师谈了谈,牛老师决定带我做project了,当然,我是非常珍惜这个来之不易的机会的,所以,我一定得好好的抓住这次机会。牛老师给我的近期任务就是学习RNN和LSTM。 虽然,这两个东西对我来说都是想当陌生的,我在先前的ML和DL的学习中并没有接触过这两个概念,那么,从现在开始,我打算先从U ...
分类:
其他好文 时间:
2016-03-30 12:25:23
阅读次数:
178
新教程内容太繁复,有空再看看,这节看的还是老教程: http://ufldl.stanford.edu/wiki/index.php/%E8%87%AA%E7%BC%96%E7%A0%81%E7%AE%97%E6%B3%95%E4%B8%8E%E7%A8%80%E7%96%8F%E6%80%A7 之
分类:
编程语言 时间:
2016-03-20 17:43:00
阅读次数:
222
Caffe原来叫:Convolutional Architecture for Fast Feature Embedding 官网的个人翻译:http://blog.csdn.net/fengbingchun/article/details/49535873 NG的英文教程:http://ufldl
分类:
其他好文 时间:
2016-02-01 13:53:26
阅读次数:
202
前言理论知识:UFLDL教程、Deep learning:二十六(Sparse coding简单理解)、Deep learning:二十七(Sparse coding中关于矩阵的范数求导)、Deep learning:二十九(Sparse coding练习)实验环境:win7, matlab2015...
分类:
其他好文 时间:
2015-11-26 18:37:06
阅读次数:
1512
英文版 http://ufldl.stanford.edu/tutorial/supervised/FeatureExtractionUsingConvolution/中文版 http://ufldl.stanford.edu/wiki/index.php/UFLDL%E6%95%99%E7%A8%...
分类:
其他好文 时间:
2015-11-19 18:46:55
阅读次数:
227
理论知识:UFLDL数据预处理和http://www.cnblogs.com/tornadomeet/archive/2013/04/20/3033149.html数据预处理是深度学习中非常重要的一步!如果说原始数据的获得,是深度学习中最重要的一步,那么获得原始数据之后对它的预处理更是重要的一部分。...
分类:
其他好文 时间:
2015-11-19 18:17:26
阅读次数:
197