<!-- flowchart 箭头图标 勿删 --> 我用自己在《快速理解比特币/区块链的原理》里面的一段话开始: 去中心化最根本的特征在于,消除了信息的不对称!而犯罪的根源则在于,利用了信息的不对称。推而广之,越是扁平化的结构,在空间维度上就越不容易看到系统内的低熵体,但是多给点时间,低熵体必然会 ...
分类:
微信 时间:
2019-02-17 10:56:21
阅读次数:
253
理论基础 熵 信息增益 算法实现 Python 模型的保存与读取 总结 ...
分类:
其他好文 时间:
2019-02-04 18:08:12
阅读次数:
200
Keras 文档http://keras.io 使用GPU加速模型训练: 训练深度神经网络的一些策略,用于提升模型精确度 1)选择合适的代价函数loss:MSE (Mean Squared Error)均方误差,Cross Entropy交叉熵。当输出层为softmax层时,选择交叉熵代价函数更为科 ...
分类:
其他好文 时间:
2019-02-03 18:24:02
阅读次数:
340
为了有效地同时解决样本类别不均衡和苦难样本的问题,何凯明和RGB以二分类交叉熵为例提出了一种新的Loss Focal loss 原始的二分类交叉熵形式如下: Focal Loss形式如下: 上式中,相对于原始的二分类交叉熵加入了两个量:1、modulating factor:(其中幂称为focusi ...
分类:
其他好文 时间:
2019-01-29 18:20:55
阅读次数:
140
C4.5算法介绍C4.5算法与ID3算法不同的是采用了信息增益比作为特征的选择,原因是:信息增益在选择属性时偏向于选择取值较多的属性。信息增益比特征A对训练数据集D的信息增益比定义为其信息增益g(D,A)与特征A的熵HA(D)之比(计算方式请看上一篇):CART算法介绍CART算法使用Gini指数作为特征的选择,并且使用平方误差最小化原则对连续型特征进行离散化,所以CART算法既可以用于分类,也可
分类:
其他好文 时间:
2019-01-28 19:21:38
阅读次数:
196
转自:http://www.cnblogs.com/hxsyl/p/4910218.html 一、第一种理解 相对熵(relative entropy)又称为KL散度(Kullback–Leibler divergence,简称KLD),信息散度(information divergence),信息 ...
分类:
其他好文 时间:
2019-01-24 00:26:40
阅读次数:
151
Planar data classification with one hidden layer 你会学习到如何: 用单隐层实现一个二分类神经网络 使用一个非线性激励函数,如 tanh 计算交叉熵的损失值 实现前向传播和后向传播 用单隐层实现一个二分类神经网络 使用一个非线性激励函数,如 tanh ...
分类:
Web程序 时间:
2019-01-18 21:51:26
阅读次数:
191
softmax函数: 交叉熵: 其中指代实际的标签中第i个的值(用mnist数据举例,如果是3,那么标签是[0,0,0,1,0,0,0,0,0,0],除了第4个值为1,其他全为0) 就是softmax的输出向量[Y1,Y2,Y3...]中,第i个元素的值 显而易见,预测越准确,结果的值越小(别忘了前 ...
分类:
其他好文 时间:
2019-01-09 11:19:39
阅读次数:
243
1. 猜数字游戏 A 写下一个数 $x$,其取值范围为 $x\in [1,n]$,B 来猜这个数字是多少,A 会告诉 B 猜的数字比 $x$ 大了还是小了,问 B 最少猜多少次可以猜出这个数字? 把 $x$ 看作一个随机数,他的取值范围是$[1,n]$,B 第一次任意猜一个数,猜中的概率是 $P(x ...
分类:
其他好文 时间:
2019-01-09 01:25:55
阅读次数:
241
论文:《Focal Loss for Dense Object Detection》 Focal Loss 是何恺明设计的为了解决one-stage目标检测在训练阶段前景类和背景类极度不均衡(如1:1000)的场景的损失函数。它是由二分类交叉熵改造而来的。 标准交叉熵 其中,p是模型预测属于类别y= ...
分类:
其他好文 时间:
2019-01-04 17:22:54
阅读次数:
1132