线性回归 人工智能是机器学习的父类;机器学习是深度学习的父类 1. 怎么做线性回归? 2. 理解回归 -- 最大似然函数 3. 应用正态分布概率密度函数 -- 对数总似然 4. 推导出损失函数 -- 推导出解析解 5. 代码实现解析解的方式求解 -- 梯度下降法的开始 -- sklearn模块使用线 ...
分类:
其他好文 时间:
2018-08-14 22:51:12
阅读次数:
307
【机器学习基本理论】详解最大似然估计(MLE)、最大后验概率估计(MAP),以及贝叶斯公式的理解 https://mp.csdn.net/postedit/81664644 最大似然估计(Maximum likelihood estimation, 简称MLE)和最大后验概率估计(Maximum a ...
分类:
其他好文 时间:
2018-08-14 14:59:59
阅读次数:
207
最大似然估计(Maximum likelihood estimation, 简称MLE)和最大后验概率估计(Maximum aposteriori estimation, 简称MAP)是很常用的两种参数估计方法。 1、最大似然估计(MLE) 在已知试验结果(即是样本)的情况下,用来估计满足这些样本分 ...
分类:
其他好文 时间:
2018-08-07 21:57:53
阅读次数:
3439
一、逻辑回归简介 如何凸显你是一个对逻辑回归已经非常了解的人呢。一句话概括它!逻辑回归假设数据服从伯努利分布,通过极大化似然函数的方法,运用梯度下降来求解参数,来达到将数据二分类的目的。 这里面其实包含了5个点 1:逻辑回归的假设,2:逻辑回归的损失函数,3:逻辑回归的求解方法,4:逻辑回归的目的, ...
分类:
其他好文 时间:
2018-08-07 19:02:00
阅读次数:
266
线性回归算法概述 误差项分析 似然函数求解 线性回归求解 ...
分类:
编程语言 时间:
2018-07-29 15:12:52
阅读次数:
130
概率模型的应用: 1.中心任务:在给定观测变量X的条件下,计算潜在变量Z的后验概率分布p(Z|X),以及关于p的期望。 2.任何未知的参数都有一个先验概率分布 eg:对于EM算法来说我们需要计算完整数据的对数似然函数关于潜在变量Z的后验概率分布的期望。 但在实际情况下,求解许多模型的后验概率分布或者 ...
分类:
其他好文 时间:
2018-07-09 14:11:26
阅读次数:
280
1.问题引入 总括:逻辑回归其实就是将分类问题数学化,也就是将类别的现象用具体的函数去刻画。 现象:如下图,就是一个二分类的具体现象,我们总可以找到一条曲线(判定边界)将两种现象或者特征分割开来. 2.问题求解 问题1:如何用函数去刻画上述分类问题中的判定边界? 我们可以将上述判定边界分成两个类别, ...
分类:
其他好文 时间:
2018-06-05 15:29:02
阅读次数:
261
摘自《统计学习方法》 李航 第五章 决策树学习通常包括3个步骤:特征选择、决策树的生成、决策树的剪枝 决策树学习本质上是从训练集中归纳出一组分类规则。 决策树学习的损失函数通常是正则化的极大似然函数。 决策树的学习算法通常是采用启发式的方法,近似求解最优化问题 特征选择问题 特征选择在于选取对训练数 ...
分类:
其他好文 时间:
2018-05-23 00:01:55
阅读次数:
169
1、逻辑斯蒂分布 sigmoid 曲线 二项逻辑斯蒂回归模型,实际上是二项判别模型。 基于逻辑斯蒂的似然函数等于每个取值的概率之积。对数似然是对他们取log 多项逻辑斯蒂回归,实际是二项的扩展。 2、最大熵模型 由5.2.2节的熵模型。使我们需要的公式。 所谓最大熵,是指83页定义的条件熵的最大熵。 ...
分类:
其他好文 时间:
2018-05-18 00:34:27
阅读次数:
137
一.线性回归算法原理推导 1.误差项分析 2.似然函数求解 3.目标函数推导 4.线性回归求解 ...
分类:
其他好文 时间:
2018-05-15 00:18:24
阅读次数:
160