码迷,mamicode.com
首页 >  
搜索关键字:熵    ( 678个结果
机器学习-交叉熵原理
参考了这个博客:https://blog.csdn.net/tsyccnh/article/details/79163834 主要用于多分类、单分类任务中,计算loss,交叉熵定义如下: 其中: p是实际概率,在机器学习中通常为label值,且取值为0或则1 q是预测概率,在机器学习中通常为预测结果 ...
分类:其他好文   时间:2018-11-13 23:55:38    阅读次数:201
Tensorflow 损失函数及学习率的四种改变形式
Reference: https://blog.csdn.net/marsjhao/article/details/72630147 分类问题损失函数-交叉熵(crossentropy) 交叉熵描述的是两个概率分布之间的距离,分类中广泛使用的损失函数,公式如下 在网络中可以通过Softmax回归将前 ...
分类:其他好文   时间:2018-11-10 16:42:35    阅读次数:306
Sigmoid函数总结
Sigmoid函数又叫Logistic函数,它在机器学习领域有极其重要的地位。 目录一 函数基本性质二 Sigmoid函数与逻辑回归三 为什么要选择Sigmoid函数LR的需求选择Sigmoid是可以的Sigmoid特殊的性质为什么选择Sigmoid正态分布解释最大熵解释四 总结 一、 函数基本性质 ...
分类:其他好文   时间:2018-11-07 18:39:25    阅读次数:309
机器学习之决策树(二)
一、复习信息熵 为了解决特征选择问题,找出最优特征,先要介绍一些信息论里面的概念。 1、熵(entropy) python3代码实现: 2、条件熵(conditional entropy) python3代码实现: 3、信息增益(information gain) python3代码实现: 看一个简 ...
分类:其他好文   时间:2018-10-28 11:14:54    阅读次数:190
信息熵
1. 信息熵 1.1 信息熵的数学本质 一个随机变量或系统所包含信息量的数学期望 1.2 信息熵的物理意义(信息论解释) 对随机变量的所有取值进行编码所需的最短编码长度 消除随机变量的不确定性所需的最短编码长度即为信息熵 1.3 随机变量X的熵: $H(X) = \sum_{i=1}^{n} P(x ...
分类:其他好文   时间:2018-10-27 23:32:28    阅读次数:236
为什么交叉熵可以用于计算代价函数
为什么交叉熵可以用于计算代价函数 通用的说,熵(Entropy)被用于描述一个系统中的不确定性(the uncertainty of a system)。在不同领域熵有不同的解释,比如热力学的定义和信息论也不大相同。 要想明白交叉熵(Cross Entropy)的意义,可以从熵(Entropy) -... ...
分类:其他好文   时间:2018-10-26 22:05:30    阅读次数:201
熵增定律与人生
受混沌大学和李善友老师的影响,开始学习重要学科的重要理论,比如机械论,自然选择,原子论,不确定性,非连续性,熵增定律,等等。 最近学习的是熵增定律,也就是热力学第二定律(物理学),忽然想明白了一个极其重要的道理,影响人的处世态度,也影响人的自身修养:人体本质上是物质,所以人和社会的一些规律也遵循这些 ...
分类:其他好文   时间:2018-10-25 14:22:19    阅读次数:449
决策树中的熵和基尼指数
决策树是一种很基本的分类与回归方法,但正如前面博文机器学习排序算法:RankNet to LambdaRank to LambdaMART中所讲的LambdaMART算法一样,这种最基本的算法却是很多经典、复杂、高效的机器学习算法的基础。关于什么是决策树,网上一搜就会有很多博客文章,所以本文并不想讨... ...
分类:其他好文   时间:2018-10-22 00:05:44    阅读次数:290
python模块之random
python的随机数模块为random模块,可以产生随机的整数或浮点数。但是这是伪随机数,python解释器会维护一些种子数,然后根据算法算出随机数。linux维护了一个熵池,这个熵池收集噪音的信息,更接近真随机数。 random 1. 随机产生0 1的浮点数,不包括1 1. 随机产生a b的整数, ...
分类:编程语言   时间:2018-10-17 21:18:34    阅读次数:217
ID3决策树
决策树 优点:计算复杂度不高,输出结果易于理解,对中间值的缺少不敏感,可以处理不相关特征数据 缺点:过拟合 决策树的构造 熵:混乱程度,信息的期望值 其中p(xi)是选择分类的概率 熵就是计算所有类别所有可能值包含的信息期望值,公式如下: (公式2) 好了!懂这些就可以直接上代码了! ...
分类:其他好文   时间:2018-10-16 21:55:56    阅读次数:195
678条   上一页 1 ... 18 19 20 21 22 ... 68 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!