课程链接:http://ufldl.stanford.edu/tutorial/supervised/MultiLayerNeuralNetworks/ 这一节前半部分介绍了神经网络模型及前向传导,定义了很多的变量,这些变量到底代表了什么一定要搞懂,否则后半部分的推导就看不懂了。 ...
分类:
其他好文 时间:
2015-09-20 14:33:20
阅读次数:
241
1、每天至少一小节JAVA视频,做习题时间除外。 2、每天至少一小节python视频。 3、两节UFLDL课程 4、每天看一段英语脱口秀或者美剧。 5、这周的主要任务是研究CSK和KCF的代码,吃透。 6、继续学习libsvm 7、准备从头学习下opencv。
分类:
其他好文 时间:
2015-09-13 08:16:46
阅读次数:
127
教程地址:http://ufldl.stanford.edu/tutorial/supervised/SoftmaxRegression/ logstic regression是二分类的问题,如果想要多分类,就得用softmax regression。 理论部分参考这位博主的博文:http://w....
分类:
其他好文 时间:
2015-09-12 17:43:20
阅读次数:
357
课程链接:http://ufldl.stanford.edu/tutorial/supervised/LogisticRegression/ 这一节主要讲的是梯度的概念,在实验部分,比较之前的线性回归的梯度与通过定义来计算的梯度,统计二者之间的误差。 参考:http://blog.cs...
分类:
其他好文 时间:
2015-09-12 09:33:28
阅读次数:
210
ufdl的新教程,从基础学起。第一节讲的是线性回归。主要目的是熟悉目标函数,计算梯度和优化。 按着教程写完代码后,总是编译出错,一查是mex的原因,实在不想整了。 这位博主用的是向量,比较简洁:http://blog.csdn.net/lingerlanlan/article/details...
分类:
其他好文 时间:
2015-09-05 17:51:02
阅读次数:
129
第0步:初始化一些参数和常数第1步:利用训练样本集训练第一个稀疏编码器第2步:利用训练样本集训练第二个稀疏编码器第3步:利用第二个稀疏编码器提取到的特征训练softmax回归模型第4步:利用误差反向传播进行微调第5步:利用测试样本集对得到的分类器进行精度测试
分类:
其他好文 时间:
2015-08-31 21:21:45
阅读次数:
109
关于Andrew Ng的machine learning课程中,有一章专门讲解逻辑回归(Logistic回归),具体课程笔记见另一篇文章。下面,对Logistic回归做一个简单的小结:给定一个待分类样本x,利用Logistic回归模型判断该输入样本的类别,需要做的就是如下两步:① 计算逻辑回归假设函...
分类:
其他好文 时间:
2015-08-29 13:55:10
阅读次数:
299
这里所谓的自学习,其实就是利用稀疏自编码器对无标签样本学习其特征准备工作(1)下载Yann Lecun的MNIST数据集用到了如下的两个数据集:程序开始第0步:设置神经网络的结构该神经网络包括三层:输入层的神经元个数(数字识别,则设置输入的图像大小)输出端的神经元个数(也就是类别数)隐藏层神经元个数...
分类:
其他好文 时间:
2015-08-27 22:35:50
阅读次数:
220
神经网络模型
简单的神经网络
前向传播
代价函数
对于单个样例 ,其代价函数为:
给定一个包含m个样例的数据集,我们可以定义整体代价函数为:
以上公式中的第一项 是一个均方差项。第二项是一个规则化项(也叫权重衰减项),其目的是减小权重的幅度,防止过度拟合。
反向传播算法
反向传播算法,它是计算偏导数的一种有效方法。
批量梯...
分类:
其他好文 时间:
2015-08-21 15:45:36
阅读次数:
203
看之前Autoencoder什么时候,我做了一些练习这里:http://ufldl.stanford.edu/wiki/index.php/Exercise:Sparse_Autoencoder 。其实 从11月开始做。有没有经过调试,后来,加班太多,我没有那么做。抽出时间调了一天。最终顺利完毕了。...
分类:
Web程序 时间:
2015-08-17 13:46:14
阅读次数:
242