码迷,mamicode.com
首页 >  
搜索关键字:机器学习基石 mlf    ( 152个结果
机器学习基石-8
模型简单点,deterministic noise 会小一些 Virtual examples:不是原始资料,是对原始资料变换后的资料,使资料多一点。可能与原始分布不同。 圈出来的条件是困难的。 W是球的法向量,不能沿着w更新,否则会超出constraint。 终止于负梯度与wreg平行。 大于0, ...
分类:其他好文   时间:2017-03-09 15:13:46    阅读次数:218
机器学习基石-5
假设弹珠颜色在变化,那么仍可估计拿出弹珠瞬间弹珠颜色的分布。颜色变化,产生noise。 ...
分类:其他好文   时间:2017-02-10 14:01:03    阅读次数:135
《机器学习基石》---验证
1 如何做选择 目前为止,我们已经有了很多选择: 如何在这么多种可能的组合中做选择?我们的方式就是使用验证。 2 ...
分类:其他好文   时间:2017-02-09 19:09:07    阅读次数:165
svm支持向量机系列(1) -- 线性支持向量机
1、主要内容 沿着之前学些机器学习基石课程中学习到的工具进行分析,该工具主要就是vc维,沿着特征转换这一目标进行探讨: (1)、当数据的特征的数量很大时,如何进行特征转换?支撑向量机 (2)、能不能找到具有预测性的特征然后联合起来? (3)、如何发现隐藏的具有预测意义的特征?原先的神经网络到现在的深 ...
分类:其他好文   时间:2017-02-04 21:18:20    阅读次数:237
机器学习基石-3
Important: 样本够大且独立(同)分布,则可能能从样本推知全体。 选择过多恶化情形。 ...
分类:其他好文   时间:2017-02-01 15:40:38    阅读次数:170
机器学习基石-1
理解为向量加减。内积为正,角度小于90°,+1;内积为负,角度大于90°,-1 wpla 为法向量,垂直于分割的超平面 ...
分类:其他好文   时间:2017-01-28 22:07:45    阅读次数:303
《机器学习基石》---非线性变换
1 非线性变换 所谓非线性变换,就是把原始的特征做非线性变换,得到一个新的特征,使用这个新的特征来做线性的分类,则对应到原始的特征空间中,相当于做了非线性的分类。 例如使用二次变换: 则Z空间中的一个直线分类边界,对应到原来空间中是一个二次曲线边界。可能是圆,椭圆,双曲线,抛物线,旋转后的椭圆,直线 ...
分类:其他好文   时间:2017-01-24 12:35:32    阅读次数:230
《机器学习基石》---Linear Models for Classification
1 用回归来做分类 到目前为止,我们学习了线性分类,线性回归,逻辑回归这三种模型。以下是它们的pointwise损失函数对比(为了更容易对比,都把它们写作s和y的函数,s是wTx,表示线性打分的分数): 把这几个损失函数画在一张图上: 如果把逻辑回归的损失函数ce做一个适当的放缩,则可以得到下图: ...
分类:其他好文   时间:2017-01-21 20:26:21    阅读次数:220
《机器学习基石》---线性回归
1 模型定义 错误衡量使用平方错误: 注:这里Eout计算是在考虑噪声的情况下,可以将x和y看作满足一个联合概率分布。 ...
分类:其他好文   时间:2017-01-19 09:35:34    阅读次数:265
逻辑回归
(注:本文内容和图片来源于林轩田老师的《机器学习基石》课程) 1 引入逻辑回归 通常的二分类问题,希望输出类别;soft的二分类问题,希望输出概率值: 对于soft问题的理想数据和实际数据: 逻辑回归的思想:先求出特征的线性加权分数,再把它用逻辑斯蒂函数转化为0~1之间的值: 逻辑斯蒂函数介绍: 2 ...
分类:其他好文   时间:2016-12-06 14:02:04    阅读次数:367
152条   上一页 1 ... 4 5 6 7 8 ... 16 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!