码迷,mamicode.com
首页 >  
搜索关键字:机器学习技法    ( 71个结果
coursera机器学习技法笔记(15)——Matrix Factorization
15 Matrix Factorization15.1 Linear Network Hypothesis  将类别数据转换成向量数据,然后以每个样本的向量数据作为输入,评分数据作为输出,利用3层神经网络进行特征萃取。   由于向量特征数据大量稀疏,因此中间层的tanhtanh函数并不会起什么作用,可以直接换成线性模型,即Linear Network。   将第1/21/2层网络的权重设为VTV...
分类:其他好文   时间:2016-05-07 08:41:24    阅读次数:169
机器学习真的可以起作用吗?(1)
[此笔记源于台湾大学林轩田老师《机器学习基石》《机器学习技法》] 机器学习真的可以起作用吗?答案是肯定的。 那为什么这个问题还要拿出来讲一讲呢? 考虑一个问题: 现在知道了5个数据,预测其余3个xn的输出,有如下可能: 我们根本没法预测! 这个问题formally的表示是:对于一个整体,我们随机抽取 ...
分类:其他好文   时间:2016-04-27 12:29:34    阅读次数:138
机器学习技法-随机森林(Random Forest)
课程地址:https://class.coursera.org/ntumltwo-002/lecture 重要!重要!重要~ 一、随机森林(RF) 1.RF介绍 RF通过Bagging的方式将许多个CART组合在一起,不考虑计算代价,通常树越多越好。 RF中使用CART没有经过剪枝操作,一般会有比较... ...
分类:其他好文   时间:2016-04-05 12:09:44    阅读次数:340
机器学习技法-决策树和CART分类回归树构建算法
课程地址:https://class.coursera.org/ntumltwo-002/lecture 重要!重要!重要~ 一、决策树(Decision Tree)、口袋(Bagging),自适应增强(AdaBoost) Bagging和AdaBoost算法再分类的时候,是让所有的弱分类器同时发挥... ...
分类:编程语言   时间:2016-04-04 20:56:34    阅读次数:510
机器学习技法-AdaBoost元算法
课程地址:https://class.coursera.org/ntumltwo-002/lecture 重要!重要!重要~ 一、Adaptive Boosting 的动机 通过组合多个弱分类器(hypothese),构建一个更强大的分类器(hypothese),从而达到“三个臭皮匠赛过诸葛亮”的效... ...
分类:编程语言   时间:2016-04-04 16:14:03    阅读次数:218
机器学习技法-深度学习
课程地址:https://class.coursera.org/ntumltwo-002/lecture 重要!重要!重要! 1.浅层神经网络与深度学习 2.深度学习的意义,减轻每层网路的负担,简化复杂的特征。对复杂的raw feature 学习任务十分有效,例如机器视觉,语音。 下面数字识别中,将... ...
分类:其他好文   时间:2016-04-02 00:40:18    阅读次数:240
机器学习技法-神经网路(NNet)
课程地址:https://class.coursera.org/ntumltwo-002 1.神经网络(NNet)的动机? 单个感知机(perceptron)模型简单,能力有限,只能线性分割。通过组合感知机模型很容易实现逻辑与、或、非,以及凸集合,但不能实现异或运算,能力有限。多层次的感知机(per ...
分类:Web程序   时间:2016-04-01 23:29:15    阅读次数:773
机器学习技法课之Aggregation模型
Courses上台湾大学林轩田老师的机器学习技法课之Aggregation 模型学习笔记。 混合(blending) 本笔记是Course上台湾大学林轩田老师的《机器学习技法课》的学习笔记,用于学习之后的一些总结。 首先,对于Aggregation模型,其基本思想就是使用不同的 g t 来合成最后的 ...
分类:其他好文   时间:2016-04-01 00:56:15    阅读次数:153
机器学习技法 笔记六 Support Vector Regressssion
今天要说的是SVR 上一次提到了kernel logistic rgeression 1.kernel ridge regression 同时也提到了,对于任何的L2-regularized linear model,它的w都可以用资料的线性组合来表示 对于以前学的linear regression ,我们的error,是用的squared error,即差值的平方来达到regressio...
分类:其他好文   时间:2016-03-26 07:23:42    阅读次数:237
Aggregation Models
这是Coursera上《机器学习技法》的课程笔记。 Aggregation models: mix or combine hypotheses for better performance, and it's a rich family. Suppose we have $T$ hypothes.....
分类:其他好文   时间:2015-12-16 14:03:20    阅读次数:180
71条   上一页 1 2 3 4 5 6 ... 8 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!