码迷,mamicode.com
首页 > 其他好文 > 详细

一般线性模型

时间:2015-06-21 13:16:24      阅读:239      评论:0      收藏:0      [点我收藏+]

标签:glm   指数分布   softmax   线性分类   logistic回归   

指数分布族

形式:

技术分享

应用:

1. logistic 回归:

  • logistics 回归其实是伯努利分布。p(y;θ)=θy?(1?θ)1?y . 其中θ可以看做hθ(x)
  • 伯努利分布是指数分布的一个特列:
    技术分享
    其中:
    技术分享
    η=log(θ1?θ) 因此:θ=11+e?η

2.梯度下降:

  • 最小二乘法其实是高斯分布。
    技术分享
  • 高斯分布是指数分布的一个特列:
    y|x;θ ~ N(μ,σ2) , 其中σ2是无关项,不妨另σ2=1
    技术分享
    其中:
    技术分享

GLM模型建立

步骤:

技术分享
1. 先建立指数分布模型,想用哪种分布去模拟
2.

  • 写出T(y)y的关系式
  • 预测函数hθ(x)=E{T(y)|x;θ}
  • η=θTx

logistic 回归:

  • 准备用伯努利分布模拟,所以p(y;θ)=θy?(1?θ)1?y,整理后:技术分享
    所以我们有:

    • η=log(θ1?θ) 因此:θ=11+e?η , T(y)=y
    • 根据上述步骤:预测函数hθ(x)=E{T(y)|x;θ} = θ = 11+e?η
    • 由第三步知道:η=θTx
    • 因此:预测函数hθ(x)=E{T(y)|x;θ} = θ = 11+e?η = 11+e?θTx
  • 由此我们得到了我们需要的预测函数:hθ(x)=11+e?θTx,然后由最大似然法确定迭代式。

梯度下降(Linear Regression)

  • 准备用高斯分布模拟,所以:
    技术分享
  • 整理后我们有:

    • T(y)=y , η=μ
    • 所以预测函数:hθ(x)=E{T(y)|x;μ} = μ = η
    • 因为:η=θTx,所以:hθ(x)=θTx
  • 由此我们得到了我们需要的预测函数:hθ(x)=θTx,然后由最大似然法确定迭代式。

线性分类(Softmax Regression)

问题:

线性分类问题是logistic 回归的一个扩展,都是针对离散型结果,即分类问题。Softmax分类的Y值可以取{1, 2, 3, …… ,k} ,即有k中分类方式

模型建立:

  • p(y=i;θ)=θi
  • 上式整合:
    技术分享
  • 因此:技术分享
    求解该式子:技术分享
    因此:技术分享
  • 因为:η=θTx , 因此: ηi=θix, 其中我们可以知道θ是一个K*N维矩阵。
    所以:技术分享

  • 预测函数hθ(x)
    技术分享

迭代式子:

  • 利用最大似然法:
    技术分享

  • 然后利用梯度下降或Newton迭代法

一般线性模型

标签:glm   指数分布   softmax   线性分类   logistic回归   

原文地址:http://blog.csdn.net/neu_chenguangq/article/details/46580449

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!