何凯明大佬 ICCV 2017 best student paper 作者提出focal loss的出发点也是希望one-stage detector可以达到two-stage detector的准确率,同时不影响原有的速度.one-stage detector的准确率不如two-stage det ...
分类:
其他好文 时间:
2018-01-11 15:35:36
阅读次数:
265
我们知道卷积神经网络(CNN)在图像领域的应用已经非常广泛了,一般一个CNN网络主要包含卷积层,池化层(pooling),全连接层,损失层等。虽然现在已经开源了很多深度学习框架(比如MxNet,Caffe等),训练一个模型变得非常简单,但是你对这些层具体是怎么实现的了解吗?你对softmax,sof ...
分类:
其他好文 时间:
2018-01-04 12:26:27
阅读次数:
180
官方文档: sort(*, key=None, reverse=False) This method sorts the list in place, using only < comparisons between items. Exceptions are not suppressed - if ...
分类:
编程语言 时间:
2018-01-03 00:46:02
阅读次数:
256
今天在训练word vec的时候,用的是nce_loss. 官方sample和我写的可视化示例里面,都用的这个 nce_loss。 今天找了一下解释,找到这个页面: https://www.zhihu.com/question/50043438/answer/254300443 说实话,没怎么看懂, ...
分类:
其他好文 时间:
2017-12-29 12:25:40
阅读次数:
291
各种风险及其最小化的解释 对于给定的输入 $X$ ,由 $f(X)$ 给出输出 $Y$ ,这个输出的预测值 $f(X)$ 与真实值 $Y$ 可能一致也可能不一致,用一个损失函数 (loss function) 来度量预测错误的程度,记作 $L(Y,f(X))$ 。 常用的损失函数比如 0 1 损失函 ...
分类:
其他好文 时间:
2017-12-28 23:20:31
阅读次数:
273
听说你的模型损失是NaN 有时候,模型跑着跑着,损失就莫名变NaN了。不过,经验告诉我们,大部分NaN主要是因为除数是0或者传给log的数值不大于0。下面说说是log出NaN的几种常见解决方法。 毕竟, 计算机的是无法表示所有实数的,尽管有些函数得出的结果只能无限近似0,但是由于计算机精度问题,最后 ...
分类:
其他好文 时间:
2017-12-22 23:54:15
阅读次数:
217
本教程为大家讲解了真实的雪材质制作过程,非常简单的教程,但个人觉得讲解的非常好,希望这套比较老的教程能给你带来帮助。 ...
分类:
其他好文 时间:
2017-12-22 13:26:58
阅读次数:
112
最小二乘法可以从Cost/Loss function角度去想,这是统计(机器)学习里面一个重要概念,一般建立模型就是让loss function最小,而最小二乘法可以认为是 loss function = (y_hat -y )^2的一个特例,类似的像各位说的还可以用各种距离度量来作为loss fu ...
分类:
其他好文 时间:
2017-12-18 18:46:01
阅读次数:
165
what has been done: This paper proposed a novel Deep Supervised Hashing method to learn a compact similarity-presevering binary code for the huge body ...
分类:
其他好文 时间:
2017-12-10 21:29:20
阅读次数:
207
题目描述 Farmer John suffered a terrible loss when giant Australian cockroaches ate the entirety of his hay inventory, leaving him with nothing to feed th ...
分类:
其他好文 时间:
2017-12-09 22:19:45
阅读次数:
176