理解为向量加减。内积为正,角度小于90°,+1;内积为负,角度大于90°,-1 wpla 为法向量,垂直于分割的超平面 ...
分类:
其他好文 时间:
2017-01-28 22:07:45
阅读次数:
303
1 非线性变换 所谓非线性变换,就是把原始的特征做非线性变换,得到一个新的特征,使用这个新的特征来做线性的分类,则对应到原始的特征空间中,相当于做了非线性的分类。 例如使用二次变换: 则Z空间中的一个直线分类边界,对应到原来空间中是一个二次曲线边界。可能是圆,椭圆,双曲线,抛物线,旋转后的椭圆,直线 ...
分类:
其他好文 时间:
2017-01-24 12:35:32
阅读次数:
230
1 用回归来做分类 到目前为止,我们学习了线性分类,线性回归,逻辑回归这三种模型。以下是它们的pointwise损失函数对比(为了更容易对比,都把它们写作s和y的函数,s是wTx,表示线性打分的分数): 把这几个损失函数画在一张图上: 如果把逻辑回归的损失函数ce做一个适当的放缩,则可以得到下图: ...
分类:
其他好文 时间:
2017-01-21 20:26:21
阅读次数:
220
1 模型定义 错误衡量使用平方错误: 注:这里Eout计算是在考虑噪声的情况下,可以将x和y看作满足一个联合概率分布。 ...
分类:
其他好文 时间:
2017-01-19 09:35:34
阅读次数:
265
(注:本文内容和图片来源于林轩田老师的《机器学习基石》课程) 1 引入逻辑回归 通常的二分类问题,希望输出类别;soft的二分类问题,希望输出概率值: 对于soft问题的理想数据和实际数据: 逻辑回归的思想:先求出特征的线性加权分数,再把它用逻辑斯蒂函数转化为0~1之间的值: 逻辑斯蒂函数介绍: 2 ...
分类:
其他好文 时间:
2016-12-06 14:02:04
阅读次数:
367
参考:http://blog.csdn.net/qiusuoxiaozi/article/details/51558497 台湾大学林轩田教授机器学习基石课程理解及python实现 PLA ...
分类:
其他好文 时间:
2016-11-20 07:02:28
阅读次数:
164
本节课程主要讲述过拟合。 VC Dimension过大的时候会发生Bad Generalization,也就是Ein很低,但是Eout很高的情况。没有办法做举一反三的学习。 Ein越做越好,但是Eout却上升了。这种情况叫做过拟合。 欠拟合就是做的不好的情况,通过增加VC Dimension可以解决 ...
分类:
其他好文 时间:
2016-09-28 15:56:57
阅读次数:
213
本节课重要讲述非线性的问题怎么样才能变成线性的分类问题。 到目前为止,我们会用模型进行线性的分类(左图),但是遇到右图的样子的时候,还是不能用一条线将它们分开。 但是右图视觉上,明显是可以用一个圆来进行分类的,假设一个半径为0.6的圆: 将上面的方程式进行展开和赋值,通过转换,再一次把圆形的方程式换 ...
分类:
其他好文 时间:
2016-09-28 12:35:10
阅读次数:
143
如果我们想要知道的并不是绝对的是或者非,我们只想知道在是非发生的概率(只想知道概率,不想知道结果)是多少的时候: 虽然我们想要知道左边的完美数据,但是在实际生活中,我们只有右边的数据,也就是一些确定的结果,不可能有概率值这个事情让我们知道。而右边的数据可以看成是有噪声的不完美的数据。 怎么解决这样的 ...
分类:
其他好文 时间:
2016-09-28 10:13:39
阅读次数:
192
本节课主要讲在机器学习中,机器如何做到举一反三。 上图可以得出结论,当N超过k的时候,mH的数量会越来越少。对未来成长函数的样子加了一个限制。 mH的数量其实是有一个上限的,这个上限就是关于N的一个多项式。引出定义bonding function B(N,k) 已知上限函数的break point是 ...
分类:
其他好文 时间:
2016-09-27 14:46:12
阅读次数:
241