码迷,mamicode.com
首页 >  
搜索关键字:entropy    ( 209个结果
Multi label 多标签分类问题
调用函数 Pytorch使用torch.nn.BCEloss Tensorflow使用tf.losses.sigmoid_cross_entropy ...
分类:其他好文   时间:2018-09-19 14:43:29    阅读次数:1291
机器学习:决策树(二)——sklearn决策树调参
参数解析 参数| DecisionTreeClassifier |DecisionTreeRegressor : :|: |: 特征选择标准criterion|可以使用"gini"或者"entropy",前者代表基尼系数,后者代表信息增益。一般说使用默认的基尼系数"gini"就可以了,即CART算法 ...
分类:其他好文   时间:2018-09-11 21:07:44    阅读次数:198
cross-entropy(交叉熵)
熵其实是信息量的期望值,它是一个随机变量的确定性的度量。熵越大,变量的取值越不确定,反之就越确定 参考链接:https://blog.csdn.net/rtygbwwwerr/article/details/50778098 交叉熵是一个在ML领域经常会被提到的名词。在这篇文章里将对这个概念进行详细 ...
分类:其他好文   时间:2018-09-05 23:45:15    阅读次数:202
[Reinforcement Learning] Cross-entropy Method
Cross-entropy Method(简称CEM)虽然是一种基于交叉熵的算法,但并不是我们熟知的监督学习中的交叉熵方法,与其说它是一种基于交叉熵的算法,倒不如说是一种基于蒙特卡洛和进化策略的算法。CEM算法不仅可以用作评估,也可以作为一种有效的优化算法,与进化算法(EAs)类似CEM是一种完全免 ...
分类:其他好文   时间:2018-09-01 20:24:28    阅读次数:136
逻辑斯谛回归,softmax回归与最大熵模型
逻辑斯谛回归(logistic regression)是统计学习中的经典分类方法 最大熵是概率模型学习的一个准则,被推广到分类问题后可得到最大熵模型(Maximum Entropy Model) 逻辑斯谛回归模型与最大熵模型都属于对数线性模型,而对数线性模型又是广义线性模型的一种。 科普一下:狭义的 ...
分类:其他好文   时间:2018-08-29 01:09:36    阅读次数:452
【TensorFlow】tf.nn.softmax_cross_entropy_with_logits的用法
在计算loss的时候,最常见的一句话就是 tf.nn.softmax_cross_entropy_with_logits ,那么它到底是怎么做的呢? 首先明确一点,loss是代价值,也就是我们要最小化的值 tf.nn.softmax_cross_entropy_with_logits(logits, ...
分类:其他好文   时间:2018-08-03 18:08:32    阅读次数:166
理解enum
问题来源:typedef enum { back, object } entropy_state; 理解: 1.将会为每个枚举元素分配一个整型值,默认从0开始,逐个加1。 2.也可以在定义枚举类型时对枚举元素赋值,此时,赋值的枚举值为所赋的值,而其他没有赋值的枚举值在为前一个枚举值加1. 参考链接: ...
分类:编程语言   时间:2018-08-01 11:48:38    阅读次数:171
HDU 1053 Entropy(哈夫曼编码 贪心+优先队列)
传送门: http://acm.hdu.edu.cn/showproblem.php?pid=1053 Entropy Time Limit: 2000/1000 MS (Java/Others) Memory Limit: 65536/32768 K (Java/Others)Total Subm ...
分类:其他好文   时间:2018-07-31 19:24:29    阅读次数:153
tomcat通过熵池解决在linux启动应用慢
tomcat启动过程中报错 熵池 熵池本质上是若干字节。/proc/sys/kernel/random/entropy_avail中存储了熵池现在的大小,/proc/sys/kernel/random/poolsize是熵池的最大容量,单位都是bit。如果entropy_avail的值小于要产生的随 ...
分类:系统相关   时间:2018-07-09 17:53:42    阅读次数:161
Softmax && Cross-entropy Error
softmax 函数,被称为 归一化指数函数,是sigmoid函数的推广。 它将向量等比压缩到[0, 1]之间,所有元素和为1. Example: softmax([1, 2, 3, 4, 1, 2, 3]) = [0.024, 0.064, 0.175, 0.475, 0.024, 0.064, ...
分类:其他好文   时间:2018-07-08 20:37:07    阅读次数:180
209条   上一页 1 ... 5 6 7 8 9 ... 21 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!