机器学习中非常重要的四个基础概念,总结自台大机器学习基石课程,解释机器为什么能够学习.........
分类:
其他好文 时间:
2015-08-16 18:26:00
阅读次数:
154
期末终于过去了,看看别人的总结:http://blog.sina.com.cn/s/blog_641289eb0101dynu.html接触机器学习也有几年了,不过仍然只是个菜鸟,当初接触的时候英文不好,听不懂课,什么东西都一知半解。断断续续的自学了一些公开课和书以后,开始逐渐理解一些概念。据说,心...
分类:
其他好文 时间:
2015-07-16 21:42:27
阅读次数:
115
转自:http://blog.sina.com.cn/s/blog_641289eb0101e2ld.htmlPart 2总结一下一个粗略的建模过程:首先,弄清楚问题是什么,能不能用机器学习的思路去考虑:是否有pattern?是否规则不明确?是否有数据?如果可以用,那么考虑,问题的学习目标是什么,有...
分类:
其他好文 时间:
2015-07-16 21:23:16
阅读次数:
154
作业四的代码题目主要是基于ridge regression来做的,并加上了各种cross-validation的情况。由于ridge regression是有analytic solution,所以直接求逆矩阵就OK了,过程并不复杂。只有在做cross-validation的时候遇上了些问题。#en...
分类:
其他好文 时间:
2015-07-01 20:32:28
阅读次数:
217
正则化的提出,是因为要解决overfitting的问题。以Linear Regression为例:低次多项式拟合的效果可能会好于高次多项式拟合的效果。这里回顾上上节nonlinear transform的课件:上面的内容说的是,多项式拟合这种的假设空间,是nested hypothesis;因此,能...
分类:
其他好文 时间:
2015-06-30 21:36:17
阅读次数:
356
首先明确了什么是Overfitting随后,用开车的例子给出了Overfitting的出现原因出现原因有三个:(1)dvc太高,模型过于复杂(开车开太快)(2)data中噪声太大(路面太颠簸)(3)数据量N太小(知道的路线太少)这里(1)是前提,模型太复杂:(1)模型越复杂,就会捕获train da...
分类:
其他好文 时间:
2015-06-28 22:59:55
阅读次数:
128
关注了Q18~Q20三道编程作业题。这三道题都与Logistic Regression相关。Q18~19是用全量梯度下降实现Logistic Regression;Q20要求用随机梯度下降实现Logistic Regression。这三题的代码都何在一个py文件中了。个人觉得,这道题的程序设计,完全...
分类:
其他好文 时间:
2015-06-28 16:49:11
阅读次数:
266
首先回顾了几个Linear Model的共性:都是算出来一个score,然后做某种变化处理。既然Linear Model有各种好处(训练时间,公式简单),那如何把Linear Regression给应用到Classification的问题上呢?到底能不能迁移呢?总结了如下的集中Linear Mode...
分类:
其他好文 时间:
2015-06-27 11:34:22
阅读次数:
130
这一节开始讲基础的Linear Regression算法。(1)Linear Regression的假设空间变成了实数域(2)Linear Regression的目标是找到使得残差更小的分割线(超平面)下面进入核心环节:Linear Regression的优化目标是minimize Ein(W)为了...
分类:
其他好文 时间:
2015-06-24 22:15:16
阅读次数:
373
作业一被bubuko抓取了,要是能注明转载就更好了(http://bubuko.com/infodetail-916604.html)作业二关注的题目是需要coding的Q16~Q20Q16理解了一段时间,题目阐述的不够详细。理解了题意之后,发现其实很简单。理解问题的关键是题目中给的's'是啥意思:...
分类:
其他好文 时间:
2015-06-23 19:33:00
阅读次数:
297