15 Matrix Factorization15.1 Linear Network Hypothesis 将类别数据转换成向量数据,然后以每个样本的向量数据作为输入,评分数据作为输出,利用3层神经网络进行特征萃取。
由于向量特征数据大量稀疏,因此中间层的tanhtanh函数并不会起什么作用,可以直接换成线性模型,即Linear Network。
将第1/21/2层网络的权重设为VTV...
分类:
其他好文 时间:
2016-05-07 08:41:24
阅读次数:
169
[此笔记源于台湾大学林轩田老师《机器学习基石》《机器学习技法》] 机器学习真的可以起作用吗?答案是肯定的。 那为什么这个问题还要拿出来讲一讲呢? 考虑一个问题: 现在知道了5个数据,预测其余3个xn的输出,有如下可能: 我们根本没法预测! 这个问题formally的表示是:对于一个整体,我们随机抽取 ...
分类:
其他好文 时间:
2016-04-27 12:29:34
阅读次数:
138
课程地址:https://class.coursera.org/ntumltwo-002/lecture 重要!重要!重要~ 一、随机森林(RF) 1.RF介绍 RF通过Bagging的方式将许多个CART组合在一起,不考虑计算代价,通常树越多越好。 RF中使用CART没有经过剪枝操作,一般会有比较... ...
分类:
其他好文 时间:
2016-04-05 12:09:44
阅读次数:
340
课程地址:https://class.coursera.org/ntumltwo-002/lecture 重要!重要!重要~ 一、决策树(Decision Tree)、口袋(Bagging),自适应增强(AdaBoost) Bagging和AdaBoost算法再分类的时候,是让所有的弱分类器同时发挥... ...
分类:
编程语言 时间:
2016-04-04 20:56:34
阅读次数:
510
课程地址:https://class.coursera.org/ntumltwo-002/lecture 重要!重要!重要~ 一、Adaptive Boosting 的动机 通过组合多个弱分类器(hypothese),构建一个更强大的分类器(hypothese),从而达到“三个臭皮匠赛过诸葛亮”的效... ...
分类:
编程语言 时间:
2016-04-04 16:14:03
阅读次数:
218
课程地址:https://class.coursera.org/ntumltwo-002/lecture 重要!重要!重要! 1.浅层神经网络与深度学习 2.深度学习的意义,减轻每层网路的负担,简化复杂的特征。对复杂的raw feature 学习任务十分有效,例如机器视觉,语音。 下面数字识别中,将... ...
分类:
其他好文 时间:
2016-04-02 00:40:18
阅读次数:
240
课程地址:https://class.coursera.org/ntumltwo-002 1.神经网络(NNet)的动机? 单个感知机(perceptron)模型简单,能力有限,只能线性分割。通过组合感知机模型很容易实现逻辑与、或、非,以及凸集合,但不能实现异或运算,能力有限。多层次的感知机(per ...
分类:
Web程序 时间:
2016-04-01 23:29:15
阅读次数:
773
Courses上台湾大学林轩田老师的机器学习技法课之Aggregation 模型学习笔记。 混合(blending) 本笔记是Course上台湾大学林轩田老师的《机器学习技法课》的学习笔记,用于学习之后的一些总结。 首先,对于Aggregation模型,其基本思想就是使用不同的 g t 来合成最后的 ...
分类:
其他好文 时间:
2016-04-01 00:56:15
阅读次数:
153
今天要说的是SVR
上一次提到了kernel logistic rgeression
1.kernel ridge regression
同时也提到了,对于任何的L2-regularized linear model,它的w都可以用资料的线性组合来表示
对于以前学的linear regression ,我们的error,是用的squared error,即差值的平方来达到regressio...
分类:
其他好文 时间:
2016-03-26 07:23:42
阅读次数:
237
这是Coursera上《机器学习技法》的课程笔记。 Aggregation models: mix or combine hypotheses for better performance, and it's a rich family. Suppose we have $T$ hypothes.....
分类:
其他好文 时间:
2015-12-16 14:03:20
阅读次数:
180