一、核心思想:由部分估计整体 二、具体分析 (1)先举一个最简单的例子,如下: 转换成更专业一点的就是:现在有一个样本分布为A,我们从这个样本分布中获得了一部分样本a,极大似然就是要利用这部分a来估计A的分布; 做法就是对A构建模型,模型参数为Q,然后再构建极大似然函数表示在何种模型参数Q下可以最大 ...
分类:
其他好文 时间:
2019-10-28 13:00:03
阅读次数:
80
[TOC]更新、更全的《机器学习》的更新网站,更有python、go、数据结构与算法、爬虫、人工智能教学等着你:https://www.cnblogs.com/nickchen121/# 极大似然估计# 一、最大似然原理![极大似然估计原理](http://www.chenyoude.com/ml/... ...
分类:
其他好文 时间:
2019-10-16 18:00:33
阅读次数:
84
极大似然估计的原理,先用一张图片来说明 总结起来,极大似然估计的目的:就是利用已知的样本结果,反推最有可能(最大概率)导致这样结果的参数值。 通过若干次试验,观察其结果,利用试验结果的某个参数值能够使样本出现的概率最大,称为极大似然估计。 由于样本集中的样本都是独立同分布,可以只考虑一类样本集D,来 ...
分类:
其他好文 时间:
2019-10-16 13:36:14
阅读次数:
75
频率派 $vs$ 贝叶斯派 一、前言 1. 在使用各种概率模型时,比如极大似然估计 $logP(X|\theta)$,已经习惯这么写了,可是为什么这么写?为什么X在前,为什么 $\theta$ 在后,分别代表了什么?这些更深一层的逻辑和理由不是特别清晰,故此梳理一下频率派与贝叶斯派的区别。 2. 本 ...
分类:
其他好文 时间:
2019-10-12 20:38:38
阅读次数:
128
1、什么是逻辑回归; 2、逻辑回归的流程及推导; 3、逻辑回归的多分类 4、逻辑回归VS线性回归 5、逻辑回归 VS SVM 1、什么使逻辑回归; 名为回归,实际是分类,通过计算$P(y=0|x;\theta )$的大小来预测分类类别,预测的是类别0,1,而不是概率,但计算的是概率;$0\leq P ...
分类:
其他好文 时间:
2019-09-01 14:52:04
阅读次数:
76
EM算法理解 来源:[知乎:Evan](https://www.zhihu.com/question/27976634/answer/252238739) 1. EM算法产生的原因 EM算法是为了解决《最大似然估计》中更复杂的情形而存在的。 这里“极大似然估计中更复杂的情形”是什么情形呢? 我们知道 ...
分类:
编程语言 时间:
2019-08-22 01:01:44
阅读次数:
102
【1】极大似然估计详解,写的太好了!https://blog.csdn.net/qq_39355550/article/details/81809467 ...
分类:
其他好文 时间:
2019-07-19 20:50:59
阅读次数:
81
贝叶斯决策 贝叶斯公式(后验概率): p(w):每种类别分布的概率——先验概率; p(x|w):某类别下x事件发生的概率——条件概率; p(w|x):x事件已经发生,属于某类的概率——后验概率; 后验概率越大,说明x事件属于这个类的概率越大,就越有理由把事件x归到这个类下 后验概率越大,说明x事件属 ...
分类:
其他好文 时间:
2019-07-01 15:53:41
阅读次数:
127
这篇博客整理K均值聚类的内容,包括: 1、K均值聚类的原理; 2、初始类中心的选择和类别数K的确定; 3、K均值聚类和EM算法、高斯混合模型的关系。 一、K均值聚类的原理 K均值聚类(K-means)是一种基于中心的聚类算法,通过迭代,将样本分到K个类中,使得每个样本与其所属类的中心或均值的距离之和 ...
分类:
编程语言 时间:
2019-05-13 14:14:06
阅读次数:
763
一、EM算法概述 EM算法(Expectation Maximization Algorithm,期望极大算法)是一种迭代算法,用于求解含有隐变量的概率模型参数的极大似然估计(MLE)或极大后验概率估计(MAP)。EM算法是一种比较通用的参数估计算法,被广泛用于朴素贝叶斯、GMM(高斯混合模型)、K ...
分类:
编程语言 时间:
2019-05-12 00:55:20
阅读次数:
208