码迷,mamicode.com
首页 >  
搜索关键字:loss    ( 720个结果
Learning Temporal Pose Estimation from Sparsely-Labeled Videos
facebook AI 出品 之前的关键点论文大多是在静态图片上进行关键点识别,作者的工作是在不完全标注的视频序列中识别关键点,方法是每k帧进行一次关键点标注,标注的帧和某帧未标注的帧进行特征的warping,进行预测标注帧的结果,利用标注帧的结果反向优化未标注帧的关键点结果。 《摘要》 现在视频中 ...
分类:其他好文   时间:2019-12-26 21:40:40    阅读次数:135
Center Loss - A Discriminative Feature Learning Approach for Deep Face Recognition
URL:http://ydwen.github.io/papers/WenECCV16.pdf这篇论文主要的贡献就是提出了Center Loss的损失函数,利用Softmax Loss和Center Loss联合来监督训练,在扩大类间差异的同时缩写类内差异,提升模型的鲁棒性。为了直观的说明softm... ...
分类:移动开发   时间:2019-12-25 23:34:57    阅读次数:108
C语言文件
任务一、二 #include <stdio.h> #include <stdlib.h> #include <math.h> int main() { FILE *fp = fopen("loss.txt", "w"); if (fp == NULL){ printf("Failed to open ...
分类:编程语言   时间:2019-12-22 12:37:02    阅读次数:69
hinge loss/支持向量损失的理解
https://blog.csdn.net/AI_focus/article/details/78339234 https://www.cnblogs.com/massquantity/p/8964029.html pytprch HingeLoss 的实现: import torch import ...
分类:其他好文   时间:2019-12-20 01:06:55    阅读次数:88
Pytorch详解NLLLoss和CrossEntropyLoss
是什么? https://www.cnblogs.com/marsggbo/p/10401215.html 具体pytorch怎么运算的 https://blog.csdn.net/qq_22210253/article/details/85229988 ...
分类:其他好文   时间:2019-12-13 18:01:10    阅读次数:108
L1 loss, L2 loss以及Smooth L1 Loss的对比
总结对比下$L_1$ 损失函数,$L_2$ 损失函数以及$\text{Smooth} L_1$ 损失函数的优缺点。 均方误差MSE ($L_2$ Loss) 均方误差(Mean Square Error,MSE)是模型预测值$f(x)$ 与真实样本值$y$ 之间差值平方的平均值,其公式如下 $$ M ...
分类:其他好文   时间:2019-12-11 13:33:45    阅读次数:376
SIGAI机器学习第十八集 线性模型2
之前讲过SVM,是通过最大化间隔导出的一套方法,现在从另外一个角度来定义SVM,来介绍整个线性SVM的家族。 大纲: 线性支持向量机简介L2正则化L1-loss SVC原问题L2正则化L2-loss SVC原问题L2正则化SVC对偶问题L1正则化L2-loss SVC原问题多类线性支持向量机实验环节 ...
分类:其他好文   时间:2019-12-03 21:56:45    阅读次数:94
论文学习——《Learning to Compose with Professional Photographs on the Web》 (ACM MM 2017)
这篇论文的思路基于一个简单的假设:专业摄影师拍出来的图片一般具备比较好的构图,而如果从他们的图片中随机抠出一块,那抠出的图片大概率就毁了。也就是说,原图在构图方面的分数应该高于抠出来的图片。而这种比较的方式,可以很方便地用 Siamese Network 和 hinge loss 实现。另外,这篇论 ...
分类:Web程序   时间:2019-12-02 19:02:07    阅读次数:114
为什么验证集的loss会小于训练集的loss?
原因1-在训练中应用正则化(加了正则项),但在验证/测试中未应用正则化 正则化方法通常会牺牲训练准确性来提高验证/测试准确性——在某些情况下,可能导致验证loss低于训练loss。原因2-训练loss是在每个epoch测量的,而验证loss是在每个epoch后测量的 在整个epoch内,您的训练lo ...
分类:其他好文   时间:2019-12-01 21:21:45    阅读次数:669
深度学习_0_相关概念
SVM损失函数 L1 = max(0,5.1 3.2+1)+max(0, 1.7 3.2+1) l2 = ...... 损失函数:L=(L1+L2+L3)/3 当所有的分数几乎相同时:L=分类数 1 (就是max中的那个1.共有类数 1个) 为什么使用平均值? 无论分数如何变化loss不会改变 最优 ...
分类:其他好文   时间:2019-11-30 11:29:23    阅读次数:66
720条   上一页 1 ... 13 14 15 16 17 ... 72 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!