标签:map 在线学习 输出 数据量 目录 增加 amp lis 决策
概率模型和非概率模型
概率模型可以表示为联合概率分布的形式
线性模型和非线性模型
参数化模型和非参数化模型
贝叶斯学习,利用贝叶斯定理
\[P(\theta|D) = \frac{P(\theta)P(D|\theta)}{P(D)}\]
\(P(\theta|D)\)后验概率,\(P(\theta)\)先验概率,\(P(D|\theta)\)似然函数
如果要给一个模型,给后验概率最大的模型(MAP)
预测时\(P(x|D) = \int P(x|\theta,D)P(\theta|D)d\theta\)
核方法
方法=模型+策略+算法
假设空间:决策函数集合
\(F=\{f|Y=f(X)\}\)
\(F=\{f|Y=f_\theta(X),\theta\in R^n\}\),参数\(\theta\)所在的空间叫参数空间
假设空间:条件概率集合
\(F=\{P|P(Y|X)\}\)
\(F = \{P_\theta|P_\theta(Y|X),\theta\in R^n\}\)
引入损失函数,风险函数度量模型好坏
风险损失,期望损失:
\(\begin{align*}R_{exp}(f) = &E_P[L(Y,f(x))] \\=&\int_{X\times Y} L(y,f(x))p(x,y)dxdy\end{align*}\)
由于不知道联合概率分布,只能使用经验风险,或者经验损失:
\(R_{emp}(f) = \frac{1}{N}\sum_{i=1}^{N}L(y_i,f(x_i))\)
由于样本数量有限,大数定律不起作用
经验分布最小化学习
\(\underset{f\in F}{min} \frac{1}{N}\sum_{i=1}^{N}L(y_i,f(x_i))\)
结构风险最小化学习
\(R_{stm}(f) = \frac{1}{N}\sum_{i=1}^{N}L(y_i,f(x_i))+\lambda J(f)\)
\(J(f)\)是泛函,衡量模型复杂度
求解最优化问题
监督学习方法可以分为生成方法或者判别方法,所学到的模型分别为生成模型或者判别模型
由数据学习联合分布\(P(X,Y)\),然后求条件概率\(P(Y|X)=\frac{P(X,Y)}{P(X)}\)
典型:朴素贝叶斯,隐马尔科夫模型
直接学习决策函数\(f(X)\),或者条件概率分布\(P(Y|X)\)
TP:把真的预测成真的
FN:把真的预测成假的
TN:把假的预测成假的
FP:把假的预测成真的
precision:\(P = \frac{TP}{TP+FP}\)
recall:\(R = \frac{TP}{TP+FN}\)
F1:\(\frac{2}{F_1} = \frac{1}{P}+\frac{1}{R}\)
伯努利模型n次实验结果,k次结果为1,
极大似然估计
\(f(X,\theta) = \theta^k(1-\theta)^{n-k}\)
\(\begin{align*}\underset{\theta}{argmax}f(X,\theta) =& \underset{\theta}{argmax}log(f(X,\theta)) \\=&\underset{\theta}{argmax}(klog\theta +(n-k)log(1-\theta)) \end{align*}\)
\(g(\theta) = klog\theta +(n-k)log(1-\theta)\)
\(g'(\theta) = (1-\theta)k-(n-k)(1-\theta)\)
\(g'(\theta)=0\)的解为\(\theta=\frac{k}{n}\)
贝叶斯估计
标签:map 在线学习 输出 数据量 目录 增加 amp lis 决策
原文地址:https://www.cnblogs.com/Lzqayx/p/12151009.html