《Machine Learning Yearning》Andrew NG 笔记,包含很多深度学习实验过程中的经验总结 ...
分类:
系统相关 时间:
2017-09-23 16:18:57
阅读次数:
269
变分贝叶斯EM指的是变分贝叶斯期望最大化(VBEM, variational Bayes expectation maximization),这种算法基于变分推理,通过迭代寻找最小化KL(Kullback-Leibler)距离的边缘分布来近似联合分布,同时利用mean field 近似减小联合估计的 ...
分类:
其他好文 时间:
2017-09-10 13:28:55
阅读次数:
152
Caffe入门随笔 分享一下自己入门机器学习的一些资料:(1)课程,最推荐Coursera上的Andrew NG的Machine Learning,最好注册课程,然后跟下来。其次是华盛顿大学的Machine Learning系列课程,一共有6门,包括毕业设计(2)书籍: 机器学习(周志华西瓜书)、机 ...
分类:
其他好文 时间:
2017-09-09 20:56:14
阅读次数:
263
Introduction Neural NetWork的由来 先考虑一个非线性分类,当特征数很少时,逻辑回归就可以完成了,但是当特征数变大时,高阶项将呈指数性增长,复杂度可想而知。如下图:对房屋进行高低档的分类,当特征值只有x1,x2,x3时,我们可以对它进行处理,分类。但是当特征数增长为x1,x2 ...
分类:
其他好文 时间:
2017-08-29 16:00:53
阅读次数:
351
Exercise 1:Linear Regression 实现一个线性回归 重要公式 1.h(θ)函数 2.J(θ)函数 思考一下,在matlab里面怎么表达?如下: 原理如下:(如果你懂了这道作业题,上面的也就懂了) 下面通过图形方式感受一下代价函数 : 3.θ迭代过程(梯度下降) First w ...
分类:
其他好文 时间:
2017-08-25 14:53:26
阅读次数:
178
这篇博客主要记录了Andrew Ng课程第五章应用机器学习的建议,主要介绍了在测试新数据出现较大误差该怎么处理,这期间讲到了数据集的分类,偏差,方差,学习曲线等概念,帮助我们去理解结果,然后做出相应的措施。 ...
分类:
其他好文 时间:
2017-08-16 00:49:21
阅读次数:
167
这篇博客主要记录Andrew Ng课程第四章和第五章的神经网络,主要介绍前向传播算法,反向传播算法,神经网络的多类分类,梯度校验,参数随机初始化,参数的更新等等 ...
分类:
其他好文 时间:
2017-08-15 16:30:37
阅读次数:
270
这篇博客主要记录了Andrew Ng课程第二章逻辑回归的笔记,主要介绍了梯度下降法,逻辑回归的损失函数,多类别分类等等 ...
分类:
其他好文 时间:
2017-08-15 14:10:11
阅读次数:
163
此文是斯坦福大学,机器学习界 superstar — Andrew Ng 所开设的 Coursera 课程:Machine Learning 的课程笔记。力求简洁,仅代表本人观点,不足之处希望大家探讨。 课程网址:https://www.coursera.org/learn/machine-lear ...
分类:
系统相关 时间:
2017-08-11 22:08:20
阅读次数:
279
这篇博客主要解说了Ng的课第六、七个视频,涉及到的内容包含,函数间隔和几何间隔、最优间隔分类器 ( Optimal Margin Classifier)、原始/对偶问题 ( Primal/Dual Problem)、 SVM 的对偶问题几个部分。 函数间隔和几何间隔 函数间隔( functional ...
分类:
编程语言 时间:
2017-08-08 20:09:18
阅读次数:
261