码迷,mamicode.com
首页 > 其他好文 > 详细

SVM 与 LR的异同

时间:2018-10-26 19:35:13      阅读:166      评论:0      收藏:0      [点我收藏+]

标签:作用   逻辑   自带   mac   线性   表达   支持向量机   的区别   算法   

LR & SVM 的区别

相同点

  1. LR和SVM都是分类算法。
  2. 如果不考虑核函数,LR和SVM都是线性分类算法,也就是说他们的分类决策面都是线性的。
  3. LR和SVM都是监督学习算法。
  4. LR和SVM都是判别模型。

不同点

  1. 损失函数不一样
  2. 支持向量机只考虑局部的边界线附近的点,而逻辑回归考虑全局(远离的点对边界线的确定也起作用)。
  3. 在解决非线性问题时,支持向量机采用核函数的机制,而LR通常不采用核函数的方法在计算决策面时,SVM算法里只有少数几个代表支持向量的样本参与了计算,也就是只有少数几个样本需要参与核计算(即kernal machine解的系数是稀疏的)。然而,LR算法里,每个样本点都必须参与决策面的计算过程,也就是说,假设我们在LR里也运用核函数的原理,那么每个样本点都必须参与核计算,这带来的计算复杂度是相当高的。所以,在具体应用时,LR很少运用核函数机制。
  4. 线性SVM依赖数据表达的距离测度,所以需要对数据先做normalization,LR不受其影响。
  5. SVM的损失函数就自带正则

SVM 与 LR的异同

标签:作用   逻辑   自带   mac   线性   表达   支持向量机   的区别   算法   

原文地址:https://www.cnblogs.com/crackpotisback/p/9857953.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!