标签:高斯 机器学习 algorithm 生成学习算法 gda
本课内容:
学习算法分为两种:一种是判别学习算法(Discriminative Learning Algorithm),简称DLA,另一种是生成学习算法(Generative Learning Algorithm),简称GLA。
当我们有一个分类问题,它的输入特征
根据模型经过训练得到它的似然函数模型:
如果我们把
GDA的优势: 由于有高斯分布的先验信息,如果确实符合实际数据,则只需要少量的样本就可以得到较好的模型。对比之下,logistic回归模型有更好的鲁棒性。
朴素贝叶斯是通过后验概率来分类的,首先介绍一下贝叶斯公式:
我们根据条件可以得到一个似然函数
训练模型(联合概率分布):给定训练样本
给出极大似然估计值
预测:输入一个n维特征值
由最大后验准则得到分类结果。
关于贝叶斯的一个实例,可以参考我的另外一篇博文:
机器学习算法-朴素贝叶斯Python实现.
在实际应用中,有时候我们的数据正负样本的比例不均衡,比如正样本的个数为50,负样本为0,这是计算
将它归纳之后的到的公式如下:
Stanford机器学习公开课:http://open.163.com/movie/2008/1/A/R/M6SGF6VB4_M6SGHMFAR.html
标签:高斯 机器学习 algorithm 生成学习算法 gda
原文地址:http://blog.csdn.net/dream_angel_z/article/details/46288949