Andrew Ng 机器学习笔记与总结(四)牛顿方法...
分类:
其他好文 时间:
2015-04-17 20:35:21
阅读次数:
146
机器学习Machine Learning - Andrew NG
courses学习笔记
Machine Learning - Summary机器学习课程总结
from:...
分类:
系统相关 时间:
2015-04-12 16:14:55
阅读次数:
294
机器学习Machine Learning - Andrew NG
courses学习笔记
Application Example Photo OCR应用实例照片
OCR(Optical Character Recognition)光学文字辨识
Problem Description and Pipeline问题描述和管道
Sliding Windows滑窗...
分类:
移动开发 时间:
2015-04-11 22:37:08
阅读次数:
267
Sparse Autoencoder Recap:Because we used a sigmoid activation function for f(z(3)), we needed to constrain or scale the inputs to be in the range [0,1], since the sigmoid function outputs numbers in th...
分类:
其他好文 时间:
2015-04-10 18:02:06
阅读次数:
345
转载请注明出处: http://xiahouzuoxin.github.io/notes/课程计划Linear Regression与预测问题Locally Weighted Linear RegressionLogistic Regression与分类问题Stanford机器学习课程的主页是: http://cs229.stanford.edu/课程计划主讲人Andrew Ng是机器学习界的大牛...
分类:
其他好文 时间:
2015-04-09 15:38:07
阅读次数:
271
When should we use fine-tuning?It is typically used only if you have a large labeled training set; in this setting, fine-tuning can significantly improve the performance of your classifier. However, if...
分类:
其他好文 时间:
2015-04-09 09:00:30
阅读次数:
172
自去年底开始学习Andrew Ng的机器学习公开课,欲依其课件试着实现部分算法以加深理解,然在此过程中遇到部分问题,或为程序实现,或为算法理解。故而准备将此课程整理,并记录自己的理解,或对或错可共同讨论。 此课程主要包括三部分:监督学习算法、无监督学习算法以及学习理论。监督学习部分讲了回归、生...
分类:
其他好文 时间:
2015-04-08 12:27:20
阅读次数:
109
机器学习Machine Learning - Andrew NG
courses学习笔记
Large Scale Machine Learning大规模机器学习
Learning With Large Datasets大数据集学习
Stochastic Gradient Descent随机梯度下降
Mini-Batch Gradient Descent迷你批处理梯度下降...
分类:
系统相关 时间:
2015-04-06 20:20:23
阅读次数:
220
这是UFLDL的编程练习。Weight decay(Softmax 回归有一个不寻常的特点:它有一个“冗余”的参数集)后的cost function和梯度函数:
cost function:J(θ)=?1m??∑i=1m∑j=1k1{y(i)=j}logeθTjx(i)∑kl=1eθTlx(i)??+λ2∑i=1k∑j=0nθ2ij\begin{align}
J(\theta) = - \frac{...
分类:
其他好文 时间:
2015-04-04 16:47:26
阅读次数:
402
机器学习Machine Learning - Andrew NG
courses学习笔记
Recommender Systems 推荐系统
Problem Formulation 问题的提出
Content Based Recommendations基于内容的推荐
Collaborative Filtering协同过滤
Collaborative...
分类:
系统相关 时间:
2015-04-03 11:29:27
阅读次数:
334