标签:因子 ima 核函数 .com 图片 分享图片 统计学习 公式 学习方法
支持向量机(Support Vector Machines, SVM):是一种监督学习算法。处理二分类
线性可分数据集:将数据集分隔开的直线称为分隔超平面。我们希望找到离分隔超平面最近的点,确保它们离分隔面的距离尽可能远,这里点到分隔面的距离被称为间隔(margin)。
线性不可分数据集:利用核函数(kernel)将数据映射到高维,转化成线性可分
寻找最大间隔
分隔超平面是一条直线,点到超平面的距离 == 点到直线的距离
点到直线的距离公式
理论推导(李航的统计学习方法):
定义拉格朗日函数:
将目标函数有极大转换成求极小,就得到下面与之等价的对偶最优化问题
但是几乎所有数据都不那么“干净”,引入松弛变量,允许数据点可以处于分隔面的错误一侧
此时新的约束条件则变为:
总的来说:
表示松弛变量
常量C是 惩罚因子
, 表示离群点的权重(用于控制“最大化间隔”和“保证大部分点的函数间隔小于1.0” )
SVM中的主要工作就是要求解 alpha.
标签:因子 ima 核函数 .com 图片 分享图片 统计学习 公式 学习方法
原文地址:https://www.cnblogs.com/gezhuangzhuang/p/9939865.html