码迷,mamicode.com
首页 >  
搜索关键字:entropy    ( 209个结果
Generative Adversarial Nets[LSGAN]
0 背景 在这之前大家在训练GAN的时候,使用的loss函数都是sigmoid_cross_entropy_loss函数,然而xudon mao等人发现当使用伪造样本去更新生成器(且此时伪造样本也被判别器判为对的时候)会导致梯度消失的问题。虽然此时伪造样本仍然离真实样本分布距离还挺远。也就是之前的损 ...
分类:Web程序   时间:2018-02-25 00:08:02    阅读次数:210
四、决策树、随机森林、GBDT、XGBoost
(本节课各种数学式子比较多。。。。。^_^) 决策树 Decision Tree? 介绍? 熵 Entropy? 信息增益 Information Gain? 常见算法? 过度拟合 Overfitting? 剪枝 Prune? 增益率 GainRatio? 更多的DT应?场景类别:? 连续函数,多分 ...
分类:其他好文   时间:2018-02-19 14:21:19    阅读次数:193
利用cross-entropy cost代替quadratic cost来获得更好的收敛
1.从方差代价函数说起(Quadratic cost) 代价函数经常用方差代价函数(即采用均方误差MSE),比如对于一个神经元(单输入单输出,sigmoid函数),定义其代价函数为: 其中y是我们期望的输出,a为神经元的实际输出【 a=σ(z), where z=wx+b 】。 在训练神经网络过程中 ...
分类:其他好文   时间:2018-02-15 17:35:17    阅读次数:188
sklearn决策树特征权重计算方法
训练模型,生成树图 gini entropy 计算 importance,比较和模型生成权重的一致性 总结 计算特征 对不存度减少的贡献,同时考虑 节点的样本量 对于某节点计算(**criterion可为gini或entropy**) 父节点 有样本量$n_0$,criterion为${c}_0$ ...
分类:其他好文   时间:2018-02-11 12:23:40    阅读次数:960
halcon算子翻译——entropy_gray
名称 entropy_gray - 确定图像的熵和各向异性。 用法 entropy_gray(Regions, Image : : : Entropy, Anisotropy) 描述 算子entropy_gray创建输入图像中灰度值的相对频率的直方图,并根据以下公式从这些频率计算来自区域的每个区域的 ...
分类:其他好文   时间:2018-01-30 12:12:17    阅读次数:182
tfboys——tensorflow模块学习(二)
tf.contrib模块 tf.contrib 模块是一个比较复杂的模块。 contrib细节: tf.contrib.bayesflow.entropy 香农信息论 tf.contrib.bayesflow.monte_carlo Monte Carlo integration 蒙特卡洛积分 tf ...
分类:其他好文   时间:2018-01-13 18:58:20    阅读次数:1137
瑞丽熵(renyi entropy)
在信息论中,Rényi熵是Hartley熵,Shannon熵,碰撞熵和最小熵的推广。熵能量化了系统的多样性,不确定性或随机性。Rényi熵以AlfrédRényi命名。在分形维数估计的背景下,Rényi熵构成了广义维数概念的基础。 Rényi熵在生态学和统计学中是重要的多样性指标。Rényi熵在量子 ...
分类:其他好文   时间:2018-01-13 16:55:36    阅读次数:1323
ELBO 与 KL散度
浅谈KL散度一、第一种理解 相对熵(relative entropy)又称为KL散度(Kullback–Leibler divergence,简称KLD),信息散度(information divergence),信息增益(information gain)。 KL散度是两个概率分布P和Q差别的非对... ...
分类:其他好文   时间:2018-01-13 15:47:07    阅读次数:274
交叉熵 相关链接
TensorFlow四种Cross Entropy算法实现和应用 对比两个函数tf.nn.softmax_cross_entropy_with_logits和tf.nn.sparse_softmax_cross_entropy_with_logits 从神经网络视角看均方误差与交叉熵作为损失函数时的 ...
分类:其他好文   时间:2018-01-12 11:29:00    阅读次数:177
卷积神经网络系列之softmax,softmax loss和cross entropy的讲解
我们知道卷积神经网络(CNN)在图像领域的应用已经非常广泛了,一般一个CNN网络主要包含卷积层,池化层(pooling),全连接层,损失层等。虽然现在已经开源了很多深度学习框架(比如MxNet,Caffe等),训练一个模型变得非常简单,但是你对这些层具体是怎么实现的了解吗?你对softmax,sof ...
分类:其他好文   时间:2018-01-04 12:26:27    阅读次数:180
209条   上一页 1 ... 7 8 9 10 11 ... 21 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!