码迷,mamicode.com
首页 > 其他好文 > 详细

机器学习—广义线性模型(GLM)

时间:2015-07-11 09:18:34      阅读:150      评论:0      收藏:0      [点我收藏+]

标签:广义线性模型   逻辑回归   softmax   

逻辑回归是广义线性模型的一种特殊情况,但是在前面这篇http://blog.csdn.net/zhangzhengyi03539/article/details/46574803 讲逻辑回归的时候没有说明为什么要采用单极型函数,这篇文章将会从浅入深的讲解一下广义线性模型。

一、指数分布族(ExponentialFamily)。
如果一个分布函数可以写成如下的形式

p(y,η)=b(y)eηTT(y)?a(η)(1)

η:自然参数,标准参数,规范参数
T(y):充分统计量
a(η):对数分函数

其中,T,a,b 确定了参数为η的一种分布函数。
例如,对于伯努利分布~Bernouli(?),p(y=1;?)=?,p(y=0,?)=1?? ,对于不同的? 我们得到不同的伯努利分布函数,这就是伯努利分布族。下面我们可以推导一下,证明伯努利分布~Bernouli(?) 满足上式。
p(y;?)=?y(1??)1?y
    =eylog?+(1?y)log(1??)
    =eylog?1??+log(1??)
对比式(1)可得
η=log?1??
T(y)=y
a(η)=log(1??)
b(y)=1
如果我们求解? 便可得到?=11+e?η,这就是我们前面为什么选择单极性函数的原因,当然到这里你可能还不是特别明白,为什么要这样做,不要着急,继续往下看就会明白了。

二、GLM的三个假设
广义线性模型,顾名思义,线性模型,肯定是基于特征的线性组合的模型。对于y关于x的条件概率和模型设定三个假设:

1、y|x;θ~ExponentialFamily(η) 对于给定的xθ ,y 的分布服从参数为η 的指数分布族
2、对于给定的x ,目标是预测给定xT(y) 的期望。
3、自然参数η 和输入x 是线性关系:η=θTx (如果η 是向量,那么ηi=θTix )。

对于假设1,没啥难理解的,这个主要是用来限制y|x,θ 的分布的,这个分布要能够写成指数分布族的形式。注意这里的θη
对于假设2,由于,在大多数例子中T(y)=y ,hθ(x)=E(y|x) 。因此,预测T(y) 就是预测y ,简单说就是预测因变量(分类就对应类别标签,回归就是因变量值)。可以看出来这个说的是决策函数。
对于假设3,意味着在任何出现η 的地方,我们都需要用η=θTx 或者ηi=θTix 替换。η 根据假设1应该是指数分布族里面的参数,这里需要全部换成θ

注意到GLM的三个假设只是给了我们一个框架,告诉我们怎么做决策,模型里面的参数θ GLM并没有告诉我们怎么求,但是只要知道每个样本的概率求法(带入GLM框架),我们可以根据极大似然法求解。

三、最小二乘法
讲最小二乘法之前先来看看高斯分布的指数分布族变换
y|x~N(μ,σ2) ,我们考虑简单情况σ2=1 所以有下式
p(y,μ)=12πexp(?12(y?μ)2)
    =12πexp(?12y2)exp(μy?12μ2)

η=μ
T(y)=y
a(η)=12μ2=12η2
b(y)=12πexp(?12y2)

接下来,根据GLM的三个假设可以得到
hθ(x)=E[y|x;θ]
    =μ
    =η
    =θTx

第一行根据是GLM假设2,第二行根据是高斯分布性质,第三行根据是高斯分布的指数分布族形式,最后一行根据是GLM假设3。
这个就得到了和线性回归里面最小二乘的概率解释相同的公式。

版权声明:本文为博主原创文章,未经博主允许不得转载。

机器学习—广义线性模型(GLM)

标签:广义线性模型   逻辑回归   softmax   

原文地址:http://blog.csdn.net/zhangzhengyi03539/article/details/46834379

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!