隐马尔科夫模型是一种序列模型,广泛应用于自然语言处理,语音识别,生物信息等领域。 1. 模型的定义与约定: 定义:一个隐马尔科夫模型指的是如下的两个随机序列$I,O$: 1)一个不可观测随机序列:$I=(i_{1},...,i_{T})$, 可以取值状态集合$Q=\lbrace 1,...,K\rb ...
分类:
其他好文 时间:
2019-11-02 00:31:05
阅读次数:
105
一、核心思想:由部分估计整体 二、具体分析 (1)先举一个最简单的例子,如下: 转换成更专业一点的就是:现在有一个样本分布为A,我们从这个样本分布中获得了一部分样本a,极大似然就是要利用这部分a来估计A的分布; 做法就是对A构建模型,模型参数为Q,然后再构建极大似然函数表示在何种模型参数Q下可以最大 ...
分类:
其他好文 时间:
2019-10-28 13:00:03
阅读次数:
80
[TOC]更新、更全的《机器学习》的更新网站,更有python、go、数据结构与算法、爬虫、人工智能教学等着你:https://www.cnblogs.com/nickchen121/# 极大似然估计# 一、最大似然原理![极大似然估计原理](http://www.chenyoude.com/ml/... ...
分类:
其他好文 时间:
2019-10-16 18:00:33
阅读次数:
84
极大似然估计的原理,先用一张图片来说明 总结起来,极大似然估计的目的:就是利用已知的样本结果,反推最有可能(最大概率)导致这样结果的参数值。 通过若干次试验,观察其结果,利用试验结果的某个参数值能够使样本出现的概率最大,称为极大似然估计。 由于样本集中的样本都是独立同分布,可以只考虑一类样本集D,来 ...
分类:
其他好文 时间:
2019-10-16 13:36:14
阅读次数:
75
频率派 $vs$ 贝叶斯派 一、前言 1. 在使用各种概率模型时,比如极大似然估计 $logP(X|\theta)$,已经习惯这么写了,可是为什么这么写?为什么X在前,为什么 $\theta$ 在后,分别代表了什么?这些更深一层的逻辑和理由不是特别清晰,故此梳理一下频率派与贝叶斯派的区别。 2. 本 ...
分类:
其他好文 时间:
2019-10-12 20:38:38
阅读次数:
128
统计学习 前言:机器学习比较重要的几部分:线性模型、统计学习、深度学习,线性部分包括SVM、压缩感知、稀疏编码,都是控制整个模型的稀疏性去做线性函数,偏 Discriminative 判别模型;统计学习主要通过统计方法对数据建模找到极大似然,偏 Generative 生成方法;深度学习就是 neur ...
分类:
其他好文 时间:
2019-10-11 21:56:34
阅读次数:
108
最大似然估计的意思就是最大可能性估计,其内容为:如果两件事A,B相互独立,那么A和B同时发生的概率满足公式 P(A , B) = P(A) * P(B) P(x)表示事件x发生的概率. 如何来理解独立呢?两件事独立是说这两件事不想关,比如我们随机抽取两个人A和B,这两个人有一个共同特性就是在同一个公 ...
分类:
其他好文 时间:
2019-10-10 22:09:02
阅读次数:
76
逻辑回归 理论分析 概述 ? Logistic回归在本质上是线性回归,只是在特征到结果的映射中加入了一层函数映射,即先把特征线性求和,然后使用函数$g(z)$将上述结果映射到0 1上。 优点:计算代价不高,易于理解和实现 缺点:容易欠拟合,分类精度不高 适用数据:数值型和标称型 映射函数 sigmo ...
分类:
其他好文 时间:
2019-10-07 11:16:28
阅读次数:
90
贝叶斯决策 首先来看贝叶斯分类,我们都知道经典的贝叶斯公式: 其中:p(w):为先验概率,表示每种类别分布的概率;:类条件概率,表示在某种类别前提下,某事发生的概率;而为后验概率,表示某事发生了,并且它属于某一类别的概率,有了这个后验概率,我们就可以对样本进行分类。后验概率越大,说明某事物属于这个类 ...
分类:
其他好文 时间:
2019-09-11 14:06:30
阅读次数:
104
1、什么是逻辑回归; 2、逻辑回归的流程及推导; 3、逻辑回归的多分类 4、逻辑回归VS线性回归 5、逻辑回归 VS SVM 1、什么使逻辑回归; 名为回归,实际是分类,通过计算$P(y=0|x;\theta )$的大小来预测分类类别,预测的是类别0,1,而不是概率,但计算的是概率;$0\leq P ...
分类:
其他好文 时间:
2019-09-01 14:52:04
阅读次数:
76