参考博客:https://www.cnblogs.com/yang901112/p/11621568.html 先估计p(z|d),p(w|z) 根据它们可以求得p(z|d,w) 根据p(z|d,w)求p(z|d),p(w|z)似然函数期望的最大值,得到p(z|d),p(w|z) 回到第二步 ...
分类:
其他好文 时间:
2021-01-06 11:59:56
阅读次数:
0
在我重新抱起概率统计的课本之前,我一直都不清楚似然函数为什么是那样子的,只知道照着公式敲代码(那时候还没有tensorflow),于是出过各种糗:“啊?似然函数不就是交叉熵吗?”“机器学习中的似然函数怎么看起来跟概率统计课本里的不一样呢?”“学长学长,我把这个model的输出接上交叉熵后怎么报错了?”“似然函数”名字的意义已经在以前的多篇文章中提过了,更通用的定义来说,似然函数就是衡量当前模型参数
分类:
其他好文 时间:
2020-12-29 11:50:10
阅读次数:
0
梯度下降推导与优化算法的理解和Python实现目录梯度下降算法推导优化算法的理解和Python实现SGDMomentumNestrovAdaGradRMSpropAdam算法的表现1梯度下降算法推导模型的算法就是为了通过模型学习,使得训练集的输入获得的实际输出与理想输出尽可能相近。极大似然函数的本质就是衡量在某个参数下,样本整体估计和真实情况一样的概率,交叉熵函数的本质是衡量样本预测值与真实值之间
分类:
编程语言 时间:
2020-12-19 12:30:58
阅读次数:
5
交叉熵损失函数 交叉熵的几种表达形式 Binary CrossEntropy Categorical CrossEntropy 对数似然函数与交叉熵的关系 均方误差与交叉熵误差(sigmoid为激活函数) 均方误差(MSE)与梯度更新 交叉熵误差与梯度更新 对比与结论 多分类交叉熵函数的梯度更新(s ...
分类:
其他好文 时间:
2020-07-08 19:48:06
阅读次数:
99
将word2vec思想拓展到序列item的2vec方法并运用到推荐系统中,实质上可以认为是一种cf 在word2vec中,doc中的word是具有序列关系的,优化目标类似在max对数似然函数 应用在item2vec上,可以有两种看待方式: (1)如果item是强时序关系的,那么对某一次序列中的ite ...
分类:
其他好文 时间:
2020-06-12 20:28:30
阅读次数:
95
参考链接1 参考链接2 一、介绍 极大似然估计和贝叶斯估计分别代表了频率派和贝叶斯派的观点。频率派认为,参数是客观存在的,只是未知而矣。因此,频率派最关心极大似然函数,只要参数求出来了,给定自变量X,Y也就固定了,极大似然估计如下所示: D表示训练数据集,是模型参数 相反的,贝叶斯派认为参数也是随机 ...
分类:
其他好文 时间:
2020-06-09 23:27:55
阅读次数:
87
题目描述 试证明,对于参数 $\omega$,对率回归的目标函数(3.18)是非凸的,但其对数似然函数(3.27)是凸的。 证明方法 凸函数的二阶条件,如果$f(x)$是凸函数的充要条件 $$ \nabla ^2 f(x) \succeq 0 $$ 对定义域内所有$x$成立,且$f(x)$ 定义域为 ...
分类:
其他好文 时间:
2020-05-01 17:06:17
阅读次数:
162
概述 译自https://jaan.io/what is variational autoencoder vae tutorial/ 在讨论变分自动编码器时,为什么深度学习研究人员和概率机器学习人员会感到困惑? 什么是变体自动编码器? 为什么这个词会引起混乱? 这是因为神经网络和概率模型在基本概念和 ...
分类:
其他好文 时间:
2020-03-25 18:58:58
阅读次数:
259
4. XGBoost的优势XGBoost算法可以给预测模型带来能力的提升。当我对它的表现有更多了解的时候,当我对它的高准确率背后的原理有更多了解的时候,我发现它具有很多优势: 4.1 正则化标准GBM的实现没有像XGBoost这样的正则化步骤。正则化对减少过拟合也是有帮助的。实际上,XGBoost以 ...
分类:
其他好文 时间:
2020-02-28 21:08:07
阅读次数:
102
from https://zhuanlan.zhihu.com/p/24709748 极大似然 https://blog.csdn.net/zengxiantao1994/article/details/72787849 https://zhuanlan.zhihu.com/p/26614750 矩 ...
分类:
其他好文 时间:
2020-02-11 21:58:23
阅读次数:
97