码迷,mamicode.com
首页 >  
搜索关键字:entropy    ( 209个结果
RuntimeError: Assertion `cur_target >= 0 && cur_target < n_classes' failed
运行torch函数 torch.nn.functional.cross_entropy(pre, label, ignore_index=0)时报错,pre的shape为[ batch_size , n] label 的shape为[ batch_size]. 其中batch_size是batch的 ...
分类:其他好文   时间:2020-01-08 23:16:38    阅读次数:248
K-L 散度
K-L散度度量信息损失 只需要稍加修改熵H的计算公式就能得到K-L散度的计算公式。设p为观察得到的概率分布,q为另一分布来近似p,则p、q的K-L散度为: entropy-p-q 显然,根据上面的公式,K-L散度其实是数据的原始分布p和近似分布q之间的对数差值的期望。如果继续用2为底的对数计算,则K ...
分类:其他好文   时间:2019-12-29 14:57:10    阅读次数:87
吴裕雄--天生自然 pythonTensorFlow自然语言处理:交叉熵损失函数
import tensorflow as tf # 1. sparse_softmax_cross_entropy_with_logits样例。 # 假设词汇表的大小为3, 语料包含两个单词"2 0" word_labels = tf.constant([2, 0]) # 假设模型对两个单词预测时,... ...
分类:编程语言   时间:2019-12-19 16:16:25    阅读次数:116
LESSON 4- Entropy and Asymptotic Equipartition Property
1. Entropy 2. 序列熵(无记忆,有记忆,马尔科夫) 3. Fixed-to-variable-length codes (给n个输出symbols进行变长编码) 4. Asymptotic Equipartition Property 渐近等分性 渐近等分性是指随机变量长序列的一种重要特 ...
分类:其他好文   时间:2019-12-04 10:39:08    阅读次数:106
tomcat在linux中启动慢的解决方案
有两种解决办法: 1)在Tomcat环境中解决 可以通过配置JRE使用非阻塞的Entropy Source。 在catalina.sh中加入这么一行:-Djava.security.egd=file:/dev/./urandom 即可。 加入后再启动Tomcat,整个启动耗时下降到Server st ...
分类:系统相关   时间:2019-11-21 12:16:39    阅读次数:103
B-概率论-熵和信息增益
[TOC]更新、更全的《机器学习》的更新网站,更有python、go、数据结构与算法、爬虫、人工智能教学等着你:https://www.cnblogs.com/nickchen121/# 熵和信息增益# 一、熵(Entropy)熵表示`随机变量不确定性的度量`。假设离散随机变量$X$可以取到$n$个... ...
分类:其他好文   时间:2019-10-16 18:06:46    阅读次数:100
决策树代码
sklearn.tree.DecisionTreeClassifier 特征选择标准criterion 可以使用"gini"或者"entropy",前者代表基尼系数,后者代表信息增益。一般说使用默认的基尼系数"gini"就可以了,即CART算法。除非你更喜欢类似ID3, C4.5的最优特征选择方法。 ...
分类:其他好文   时间:2019-10-15 11:37:44    阅读次数:129
deep_learning_Function_softmax_cross_entropy_with_logits
【TensorFlow】tf.nn.softmax_cross_entropy_with_logits的用法 【TensorFlow】tf.nn.softmax_cross_entropy_with_logits的用法 【TensorFlow】tf.nn.softmax_cross_entropy_ ...
分类:其他好文   时间:2019-10-08 14:02:09    阅读次数:81
为什么用交叉熵代替二次代价函数
交叉熵代价函数(Cross-entropy cost function)是用来衡量人工神经网络(ANN)的预测值与实际值的一种方式。与二次代价函数相比,它能更有效地促进ANN的训练。在介绍交叉熵代价函数之前,本文先简要介绍二次代价函数,以及其存在的不足。 1. 二次代价函数的不足 ANN的设计目的之 ...
分类:其他好文   时间:2019-10-07 11:14:50    阅读次数:89
信息论_熵
信息论主要是对信号所含信息的多少进行量化,其基本思想是一个不太可能发生的事情要比一个可能发生的事情提供更多的信息。 度量信息的集中常用指标有信息熵、条件熵、互信息、交叉熵。 信息熵 信息熵(entropy)简称熵,是对随机变量不确定性的度量。定义为: H(x)=∑pi*log2(pi) 用以下代码来 ...
分类:其他好文   时间:2019-09-16 21:48:38    阅读次数:106
209条   上一页 1 2 3 4 5 ... 21 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!