码迷,mamicode.com
首页 >  
搜索关键字:熵    ( 678个结果
微博上的幂律,为何微信避开了,抖音呢
<!-- flowchart 箭头图标 勿删 --> 我用自己在《快速理解比特币/区块链的原理》里面的一段话开始: 去中心化最根本的特征在于,消除了信息的不对称!而犯罪的根源则在于,利用了信息的不对称。推而广之,越是扁平化的结构,在空间维度上就越不容易看到系统内的低熵体,但是多给点时间,低熵体必然会 ...
分类:微信   时间:2019-02-17 10:56:21    阅读次数:253
机器学习(二)之决策树(Decision Tree)
理论基础 熵 信息增益 算法实现 Python 模型的保存与读取 总结 ...
分类:其他好文   时间:2019-02-04 18:08:12    阅读次数:200
基础内容
Keras 文档http://keras.io 使用GPU加速模型训练: 训练深度神经网络的一些策略,用于提升模型精确度 1)选择合适的代价函数loss:MSE (Mean Squared Error)均方误差,Cross Entropy交叉熵。当输出层为softmax层时,选择交叉熵代价函数更为科 ...
分类:其他好文   时间:2019-02-03 18:24:02    阅读次数:340
Focal Loss
为了有效地同时解决样本类别不均衡和苦难样本的问题,何凯明和RGB以二分类交叉熵为例提出了一种新的Loss Focal loss 原始的二分类交叉熵形式如下: Focal Loss形式如下: 上式中,相对于原始的二分类交叉熵加入了两个量:1、modulating factor:(其中幂称为focusi ...
分类:其他好文   时间:2019-01-29 18:20:55    阅读次数:140
机器学习之决策树(二)
C4.5算法介绍C4.5算法与ID3算法不同的是采用了信息增益比作为特征的选择,原因是:信息增益在选择属性时偏向于选择取值较多的属性。信息增益比特征A对训练数据集D的信息增益比定义为其信息增益g(D,A)与特征A的熵HA(D)之比(计算方式请看上一篇):CART算法介绍CART算法使用Gini指数作为特征的选择,并且使用平方误差最小化原则对连续型特征进行离散化,所以CART算法既可以用于分类,也可
分类:其他好文   时间:2019-01-28 19:21:38    阅读次数:196
KL散度
转自:http://www.cnblogs.com/hxsyl/p/4910218.html 一、第一种理解 相对熵(relative entropy)又称为KL散度(Kullback–Leibler divergence,简称KLD),信息散度(information divergence),信息 ...
分类:其他好文   时间:2019-01-24 00:26:40    阅读次数:151
Neural Networks and Deep Learning(week3)Planar data classification with one hidden layer(基于单隐层的平面数据分类)
Planar data classification with one hidden layer 你会学习到如何: 用单隐层实现一个二分类神经网络 使用一个非线性激励函数,如 tanh 计算交叉熵的损失值 实现前向传播和后向传播 用单隐层实现一个二分类神经网络 使用一个非线性激励函数,如 tanh ...
分类:Web程序   时间:2019-01-18 21:51:26    阅读次数:191
softmax和cross_entropy
softmax函数: 交叉熵: 其中指代实际的标签中第i个的值(用mnist数据举例,如果是3,那么标签是[0,0,0,1,0,0,0,0,0,0],除了第4个值为1,其他全为0) 就是softmax的输出向量[Y1,Y2,Y3...]中,第i个元素的值 显而易见,预测越准确,结果的值越小(别忘了前 ...
分类:其他好文   时间:2019-01-09 11:19:39    阅读次数:243
数学中的熵-相关问题
1. 猜数字游戏 A 写下一个数 $x$,其取值范围为 $x\in [1,n]$,B 来猜这个数字是多少,A 会告诉 B 猜的数字比 $x$ 大了还是小了,问 B 最少猜多少次可以猜出这个数字? 把 $x$ 看作一个随机数,他的取值范围是$[1,n]$,B 第一次任意猜一个数,猜中的概率是 $P(x ...
分类:其他好文   时间:2019-01-09 01:25:55    阅读次数:241
Focal Loss 的理解
论文:《Focal Loss for Dense Object Detection》 Focal Loss 是何恺明设计的为了解决one-stage目标检测在训练阶段前景类和背景类极度不均衡(如1:1000)的场景的损失函数。它是由二分类交叉熵改造而来的。 标准交叉熵 其中,p是模型预测属于类别y= ...
分类:其他好文   时间:2019-01-04 17:22:54    阅读次数:1132
678条   上一页 1 ... 15 16 17 18 19 ... 68 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!