标签:最小值 init ssi 称多 efi 逻辑回归 学习方法 线性回归 最大熵模型
多重线性回归是用回归方程描述一个因变量与多个自变量的依存关系,简称多重回归,其基本形式为:Y= a + bX1+CX2+*+NXn。
二项分布即重复n次独立的伯努利试验。在每次试验中只有两种可能的结果,而且两种结果发生与否互相对立,并且相互独立,与其它各次试验结果无关,事件发生与否的概率在每一次独立试验中都保持不变,则这一系列试验总称为n重伯努利实验,当试验次数为1时,二项分布服从0-1分布。
注意:当X是均匀分布的时候,H(p)=log|x|,取最大值
根据已有的数据,可以求出P~(X,Y),P~(X),以及特征函数f(x,y).拥有上述变量以后,只要满足下列等式的model都称为最大熵模型
上面对于这个约束最优化问题进行了简单的改写,这样便于我们统一理解这个问题(凸优化问题的统一形式),也便于程序的求解。
先应用拉格朗日定理,然后将其转换到对偶问题。其中P为变量,在集合C中取值。
其中的对于左边,是原带约束优化问题的数学形式,只是将他写成了一个式子,首先在固定P的时候,求W使L(p,W)最大,这相当于在尽量去满足它的约束。然后是min,就相当于在满足约束的情况下求最小值,即原问题的表述。
对于右边,则是对偶问题的定义,minL(P,W)是对偶函数,整个右边式子定义为原问题的对偶问题。
其中的P属于C集合,P中的唯一变量就是P(y|x),因此需要对P(y|x)求导。
上面求出了Pw(y|x),其中的分母exp(1-w0)在归一化的过程中抵消掉了。
上面的Pw(y|x)相当于最大熵模型(只是具体形式,其中的Wi目前还是未知数),接下来就需要求Wi,Wi可以通过对偶问题最外层的maxw求出。这样就求出了最终的最大熵模型Pw(y|x).还不明白的同学可以对照《统计学习方法》中的具体例子来计算一遍。
最大熵模型与逻辑斯谛回归模型有类似的形式,它们又 称为对数线性模型(log linear model). 模型学习就是在 给定的训练数据条件下对模型进行极大似然估计或正则 化的极大似然估计。
转自于:http://www.dongzhuoyao.com/logistic-regression-and-max-entropymodel/
标签:最小值 init ssi 称多 efi 逻辑回归 学习方法 线性回归 最大熵模型
原文地址:http://www.cnblogs.com/nxld/p/6364189.html