码迷,mamicode.com
首页 >  
搜索关键字:entropy    ( 209个结果
损失函数
常用的损失函数有: 1.均方误差: tf.reduce_mean(tf.square(真实值 - 预测值)) 2.自定义损失函数: 3.交叉熵:tf.nn.softmax_cross_entropy_with_logits(lables = lables, logits = logits) 通过预测 ...
分类:其他好文   时间:2019-09-05 18:25:35    阅读次数:101
【Python机器学习】决策树分类
[1]特征选择标准criterion:string类型,可以使用"gini"或者"entropy",前者代表基尼系数,后者代表信息增益。一般说使用默认的基尼系数"gini"就可以了,即CART算法。除非你更喜欢类似ID3, C4.5的最优特征选择方法。 [2]特征划分点选择标准splitter:st ...
分类:编程语言   时间:2019-08-30 14:03:33    阅读次数:95
CVPR2019 TEXT PAPERS
1.[CVPR 2019] Aggregation Cross-Entropy for Sequence Recognition In this paper, we propose a novel method, aggregation cross-entropy (ACE), for sequen ...
分类:其他好文   时间:2019-08-22 22:15:00    阅读次数:151
最大熵模型原理小结
最大熵模型(maximum entropy model, MaxEnt)也是很典型的分类算法了,它和逻辑回归类似,都是属于对数线性分类模型。在损失函数优化的过程中,使用了和支持向量机类似的凸优化技术。而对熵的使用,让我们想起了决策树算法中的ID3和C4.5算法。理解了最大熵模型,对逻辑回归,支持向量... ...
分类:其他好文   时间:2019-07-19 18:26:51    阅读次数:102
softmax求导、cross-entropy求导及label smoothing
softmax求导 softmax层的输出为 其中,表示第L层第j个神经元的输入,表示第L层第j个神经元的输出,e表示自然常数。 现在求对的导数, 如果j=i, 1 如果ji, 2 cross-entropy求导 loss function为 对softmax层的输入求导,如下 label smoo ...
分类:其他好文   时间:2019-07-08 13:56:22    阅读次数:110
tomcat 启动特别慢
解决 有两种解决办法: 1)在Tomcat环境中解决可以通过配置JRE使用非阻塞的Entropy Source。在catalina.sh中加入这么一行:-Djava.security.egd=file:/dev/./urandom 即可。加入后再启动Tomcat,整个启动耗时下降到Server st ...
分类:其他好文   时间:2019-06-28 19:39:14    阅读次数:90
科技新发现:新型高熵合金的诞生!
高熵合金(High-entropy alloys)简称HEA,是由五种或五种以上等量或大约等量金属形成的合金。由于高熵合金可能具有许多理想的性质,因此在材料科学及工程上备受重视,并得到广泛研究。一直以来,金属材料强度与延展性难以兼得。在保证塑性的前提下,提高金属合金的强度并不容易。新型高熵合金能夠较... ...
分类:其他好文   时间:2019-06-25 13:32:05    阅读次数:172
python_机器学习_监督学习模型_决策树
1. 监督学习--分类 机器学习肿分类和预测算法的评估: a. 准确率 b.速度 c. 强壮行 d.可规模性 e. 可解释性 2. 什么是决策树/判定树(decision tree)? 3. 熵(entropy)概念: 变量的不确定越大,熵也就越大。 4. 决策树归纳算法(ID3) 5. 其他算法及 ...
分类:编程语言   时间:2019-06-25 11:57:46    阅读次数:191
tf.nn.softmax_cross_entropy_with_logits的用法
前面一篇博客讲解了softmax函数,下面讲解一下这个代码的意思: 具体的执行流程大概分为两步: 1 第一步是先对网络最后一层的输出做一个softmax,这一步通常是求取输出属于某一类的概率,对于单样本而言,输出就是一个num_classes大小的向量([Y1,Y2,Y3...]其中Y1,Y2,Y3 ...
分类:其他好文   时间:2019-06-06 15:28:11    阅读次数:130
tf.nn.softmax_cross_entropy_with_logits的用法
在计算loss的时候,最常见的一句话就是tf.nn.softmax_cross_entropy_with_logits,那么它到底是怎么做的呢? 首先明确一点,loss是代价值,也就是我们要最小化的值 tf.nn.softmax_cross_entropy_with_logits(logits, l ...
分类:其他好文   时间:2019-05-20 17:17:26    阅读次数:248
209条   上一页 1 2 3 4 5 6 ... 21 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!