常用的损失函数有: 1.均方误差: tf.reduce_mean(tf.square(真实值 - 预测值)) 2.自定义损失函数: 3.交叉熵:tf.nn.softmax_cross_entropy_with_logits(lables = lables, logits = logits) 通过预测 ...
分类:
其他好文 时间:
2019-09-05 18:25:35
阅读次数:
101
[1]特征选择标准criterion:string类型,可以使用"gini"或者"entropy",前者代表基尼系数,后者代表信息增益。一般说使用默认的基尼系数"gini"就可以了,即CART算法。除非你更喜欢类似ID3, C4.5的最优特征选择方法。 [2]特征划分点选择标准splitter:st ...
分类:
编程语言 时间:
2019-08-30 14:03:33
阅读次数:
95
1.[CVPR 2019] Aggregation Cross-Entropy for Sequence Recognition In this paper, we propose a novel method, aggregation cross-entropy (ACE), for sequen ...
分类:
其他好文 时间:
2019-08-22 22:15:00
阅读次数:
151
最大熵模型(maximum entropy model, MaxEnt)也是很典型的分类算法了,它和逻辑回归类似,都是属于对数线性分类模型。在损失函数优化的过程中,使用了和支持向量机类似的凸优化技术。而对熵的使用,让我们想起了决策树算法中的ID3和C4.5算法。理解了最大熵模型,对逻辑回归,支持向量... ...
分类:
其他好文 时间:
2019-07-19 18:26:51
阅读次数:
102
softmax求导 softmax层的输出为 其中,表示第L层第j个神经元的输入,表示第L层第j个神经元的输出,e表示自然常数。 现在求对的导数, 如果j=i, 1 如果ji, 2 cross-entropy求导 loss function为 对softmax层的输入求导,如下 label smoo ...
分类:
其他好文 时间:
2019-07-08 13:56:22
阅读次数:
110
解决 有两种解决办法: 1)在Tomcat环境中解决可以通过配置JRE使用非阻塞的Entropy Source。在catalina.sh中加入这么一行:-Djava.security.egd=file:/dev/./urandom 即可。加入后再启动Tomcat,整个启动耗时下降到Server st ...
分类:
其他好文 时间:
2019-06-28 19:39:14
阅读次数:
90
高熵合金(High-entropy alloys)简称HEA,是由五种或五种以上等量或大约等量金属形成的合金。由于高熵合金可能具有许多理想的性质,因此在材料科学及工程上备受重视,并得到广泛研究。一直以来,金属材料强度与延展性难以兼得。在保证塑性的前提下,提高金属合金的强度并不容易。新型高熵合金能夠较... ...
分类:
其他好文 时间:
2019-06-25 13:32:05
阅读次数:
172
1. 监督学习--分类 机器学习肿分类和预测算法的评估: a. 准确率 b.速度 c. 强壮行 d.可规模性 e. 可解释性 2. 什么是决策树/判定树(decision tree)? 3. 熵(entropy)概念: 变量的不确定越大,熵也就越大。 4. 决策树归纳算法(ID3) 5. 其他算法及 ...
分类:
编程语言 时间:
2019-06-25 11:57:46
阅读次数:
191
前面一篇博客讲解了softmax函数,下面讲解一下这个代码的意思: 具体的执行流程大概分为两步: 1 第一步是先对网络最后一层的输出做一个softmax,这一步通常是求取输出属于某一类的概率,对于单样本而言,输出就是一个num_classes大小的向量([Y1,Y2,Y3...]其中Y1,Y2,Y3 ...
分类:
其他好文 时间:
2019-06-06 15:28:11
阅读次数:
130
在计算loss的时候,最常见的一句话就是tf.nn.softmax_cross_entropy_with_logits,那么它到底是怎么做的呢? 首先明确一点,loss是代价值,也就是我们要最小化的值 tf.nn.softmax_cross_entropy_with_logits(logits, l ...
分类:
其他好文 时间:
2019-05-20 17:17:26
阅读次数:
248