这一节开始讲基础的Linear Regression算法。(1)Linear Regression的假设空间变成了实数域(2)Linear Regression的目标是找到使得残差更小的分割线(超平面)下面进入核心环节:Linear Regression的优化目标是minimize Ein(W)为了...
分类:
其他好文 时间:
2015-06-24 22:15:16
阅读次数:
373
作业一被bubuko抓取了,要是能注明转载就更好了(http://bubuko.com/infodetail-916604.html)作业二关注的题目是需要coding的Q16~Q20Q16理解了一段时间,题目阐述的不够详细。理解了题意之后,发现其实很简单。理解问题的关键是题目中给的's'是啥意思:...
分类:
其他好文 时间:
2015-06-23 19:33:00
阅读次数:
297
首先回顾上节课末尾引出来的VC Bound概念,对于机器学习来说,VC dimension理论到底有啥用。三点:1. 如果有Break Point证明是一个好的假设集合2. 如果N足够大,那么Ein跟Eout的表现会比较接近3. 如果算法A选的g足够好(Ein很小),则可能从数据中学到了东西====...
分类:
其他好文 时间:
2015-06-19 21:36:25
阅读次数:
433
接着上一讲留下的关子,机器学习是否可行与假设集合H的数量M的关系。机器学习是否可行的两个关键点:1. Ein(g)是否足够小(在训练集上的表现是否出色)2. Eout(g)是否与Ein(g)足够接近(在训练集上的表现能否迁移到测试集上)(1)如果假设集合数量小(M小),可知union bound后,...
分类:
其他好文 时间:
2015-06-19 18:25:12
阅读次数:
101
这一节的核心内容在于如何由hoeffding不等式 关联到机器学习的可行性。这个PAC很形象又准确,描述了“当前的可能性大概是正确的”,即某个概率的上届。hoeffding在机器学习上的关联就是:如果样本数量足够大,那么在训练集上获得的学习效果是可以平移到测试集上的。即如下,这里保证的仅仅是“训练集...
分类:
其他好文 时间:
2015-06-15 18:17:23
阅读次数:
250
作业方面,暂时只关注需要编程的题目了,用python完成代码。Q15~Q17应用的是传统PLA算法,给定的数据集也是保证线性可分的。代码需要完成的就是实现一个简单的PLA,并且“W = W + speed*yX”中的speed是可以配置的(即学习速率)代码1#encoding=utf8import ...
分类:
其他好文 时间:
2015-06-15 18:05:24
阅读次数:
387
直接跳过第一讲。从第二讲Perceptron开始,记录这一讲中几个印象深的点:1. 之前自己的直觉一直对这种图理解的不好,老按照x、y去理解。a) 这种图的每个坐标代表的是features;features的值是有物理意义的。b) 而圈圈和叉叉是为了标注不同的样本(正样本 负样本),即label;为...
分类:
其他好文 时间:
2015-06-12 17:03:40
阅读次数:
112
本栏目(机器学习)下机器学习基石专题是个人对Coursera公开课机器学习基石(2014)的学习心得与笔记。所有内容均来自Coursera公开课Machine Learning Foundations中Hsuan-Tien Lin林轩田老师的讲解。(https://class.coursera.org/ntumlone-002/lecture)
第15讲-------Validation
...
分类:
其他好文 时间:
2015-05-17 07:08:21
阅读次数:
188
之前上了台大的机器学习基石课程,里面用的教材是《Learning from data》,最近看了看觉得不错,打算深入看下去,内容上和台大的课程差不太多,但是有些点讲的更深入,想了解课程里面讲什么的童鞋可以看我之前关于课程的第一章总结列表:机器学习定义及PLA算法机器学习的分类机器学习的可能性 我打....
分类:
其他好文 时间:
2015-04-12 20:41:49
阅读次数:
216