码迷,mamicode.com
首页 >  
搜索关键字:交叉熵    ( 127个结果
二次代价函数、交叉熵(cross-entropy)、对数似然代价函数(log-likelihood cost)
二次代价函数 $C = \frac{1} {2n} \sum_{x_1,...x_n} \|y(x)-a^L(x) \|^2$ 其中,C表示代价函数,x表示样本,y表示实际值,a表示输出值,n表示样本的总数;整个的意思就是把n个y-a的平方累加起来,再除以2求一下均值。 为简单起见,先看下 一个样本 ...
分类:其他好文   时间:2020-02-23 09:50:04    阅读次数:230
交叉熵损失函数来源及求导推导
记录一下,方便复习 总结: ...
分类:其他好文   时间:2020-02-20 09:34:41    阅读次数:68
WGAN将数值限制在一定范围内 Python代码 tf.clip_by_value(p, -0.01, 0.01))
tf.clip_by_value(p, min, max)) 运用的是交叉熵而不是二次代价函数。 功能:可以将一个张量中的数值限制在(min,max)内。(可以避免一些运算错误:可以保证在进行log运算时,不会出现log0这样的错误或者大于1的概率) 参数: p:input数据 当p小于min时,输 ...
分类:编程语言   时间:2020-02-18 20:57:10    阅读次数:156
【动手学pytorch】softmax回归
一、什么是softmax? 有一个数组S,其元素为Si ,那么vi 的softmax值,就是该元素的指数与所有元素指数和的比值。具体公式表示为: softmax回归本质上也是一种对数据的估计 二、交叉熵损失函数 在估计损失时,尤其是概率上的损失,交叉熵损失函数更加常用。下面是交叉熵 当我们预测单个物 ...
分类:其他好文   时间:2020-02-13 00:30:19    阅读次数:115
cnn初探
resnet的结构 f(x)=conv-》relu-》conv(x) +x 注意:pytorch的交叉熵输入是原始数据 不需要softmax resnet不能用dropout,最好用bn 将32*32*3 初始的5*5*6卷积核替换为3*3*16后,表现良好 输出:(W-Wf+2*Padding)/ ...
分类:其他好文   时间:2020-02-05 09:21:14    阅读次数:70
损失函数——均方误差和交叉熵
1.MSE(均方误差) MSE是指真实值与预测值(估计值)差平方的期望,计算公式如下: MSE = 1/m (Σ(ym-y'm)2),所得结果越大,表明预测效果越差,即y和y'相差越大 y = tf.constant([1,2,3,0,2]) y = tf.one_hot(y,depth=4) y ...
分类:其他好文   时间:2020-01-27 15:40:00    阅读次数:100
机器学习、深度学习中的信息熵、相对熵(KL散度)、交叉熵、条件熵
信息熵 信息量和信息熵的概念最早是出现在通信理论中的,其概念最早是由信息论鼻祖香农在其经典著作《A Mathematical Theory of Communication》中提出的。如今,这些概念不仅仅是通信领域中的基础概念,也被广泛的应用到了其他的领域中,比如机器学习。 信息量用来度量一个信息的 ...
分类:其他好文   时间:2020-01-17 21:30:11    阅读次数:86
处理样本不平衡的LOSS—Focal Loss
`Focal Loss`是为了处理样本不平衡问题而提出的,经时间验证,在多种任务上,效果还是不错的。在理解`Focal Loss`前,需要先深刻理一下交叉熵损失,和带权重的交叉熵损失。然后我们从样本权利的角度出发,理解`Focal Loss`是如何分配样本权重的。Focal是动词Focus的形容词... ...
分类:其他好文   时间:2020-01-06 12:37:04    阅读次数:299
交叉熵与KL散度
参考:https://blog.csdn.net/b1055077005/article/details/100152102 (文中所有公式均来自该bolg,侵删) 信息奠基人香农(Shannon)认为“信息是用来消除随机不确定性的东西”,我们需要寻找一个量来衡量信息的有用程度。首先要先明确,这里的 ...
分类:其他好文   时间:2020-01-04 12:52:48    阅读次数:93
线性回归
机器学习初步 有监督和无监督区别, 一个有标签一个无标签 机器学习的目的, 寻找一个模式 与环境进行交互, 有一个反馈 有监督分为两类问题 主要任务是分类和回归 降维也是无监督的学习 每一行是一个样本, 每一列是一个特征(属性维度) 线性回归 多变量情形 损失函数 平方损失函数 指数损失函数 交叉熵 ...
分类:其他好文   时间:2020-01-02 20:59:01    阅读次数:86
127条   上一页 1 2 3 4 5 ... 13 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!