第一题很明显:(1)质数有很明确的定义,所以辨别质数并不需要ML;(2)在课件中反复提到的信用卡发放问题;(3)计算重力加速度有明确的方法,不需要ML;(4)在繁忙十字路口最优交通红绿灯的周期,由于每端时间的车流量很难去预测,所以需要ML去自己学习控制周期;(5)根据年龄推荐医学检验,无法通过明确定...
分类:
其他好文 时间:
2015-11-09 18:43:32
阅读次数:
1097
一.Learning with Different Output Space Y二.Learning with Different Data Label yn监督式学习,每个训练样本都有对应的label,相当于每个x都有一个y对应非监督式学习,每个训练样本是没有label的,需要电脑自己划分,类似于...
分类:
其他好文 时间:
2015-11-09 01:37:31
阅读次数:
305
机器学习中非常重要的四个基础概念,总结自台大机器学习基石课程,解释机器为什么能够学习.........
分类:
其他好文 时间:
2015-08-16 18:26:00
阅读次数:
154
期末终于过去了,看看别人的总结:http://blog.sina.com.cn/s/blog_641289eb0101dynu.html接触机器学习也有几年了,不过仍然只是个菜鸟,当初接触的时候英文不好,听不懂课,什么东西都一知半解。断断续续的自学了一些公开课和书以后,开始逐渐理解一些概念。据说,心...
分类:
其他好文 时间:
2015-07-16 21:42:27
阅读次数:
115
转自:http://blog.sina.com.cn/s/blog_641289eb0101e2ld.htmlPart 2总结一下一个粗略的建模过程:首先,弄清楚问题是什么,能不能用机器学习的思路去考虑:是否有pattern?是否规则不明确?是否有数据?如果可以用,那么考虑,问题的学习目标是什么,有...
分类:
其他好文 时间:
2015-07-16 21:23:16
阅读次数:
154
作业四的代码题目主要是基于ridge regression来做的,并加上了各种cross-validation的情况。由于ridge regression是有analytic solution,所以直接求逆矩阵就OK了,过程并不复杂。只有在做cross-validation的时候遇上了些问题。#en...
分类:
其他好文 时间:
2015-07-01 20:32:28
阅读次数:
217
正则化的提出,是因为要解决overfitting的问题。以Linear Regression为例:低次多项式拟合的效果可能会好于高次多项式拟合的效果。这里回顾上上节nonlinear transform的课件:上面的内容说的是,多项式拟合这种的假设空间,是nested hypothesis;因此,能...
分类:
其他好文 时间:
2015-06-30 21:36:17
阅读次数:
356
首先明确了什么是Overfitting随后,用开车的例子给出了Overfitting的出现原因出现原因有三个:(1)dvc太高,模型过于复杂(开车开太快)(2)data中噪声太大(路面太颠簸)(3)数据量N太小(知道的路线太少)这里(1)是前提,模型太复杂:(1)模型越复杂,就会捕获train da...
分类:
其他好文 时间:
2015-06-28 22:59:55
阅读次数:
128
关注了Q18~Q20三道编程作业题。这三道题都与Logistic Regression相关。Q18~19是用全量梯度下降实现Logistic Regression;Q20要求用随机梯度下降实现Logistic Regression。这三题的代码都何在一个py文件中了。个人觉得,这道题的程序设计,完全...
分类:
其他好文 时间:
2015-06-28 16:49:11
阅读次数:
266
首先回顾了几个Linear Model的共性:都是算出来一个score,然后做某种变化处理。既然Linear Model有各种好处(训练时间,公式简单),那如何把Linear Regression给应用到Classification的问题上呢?到底能不能迁移呢?总结了如下的集中Linear Mode...
分类:
其他好文 时间:
2015-06-27 11:34:22
阅读次数:
130