1.MSE到底有没有根号?? https://discuss.pytorch.org/t/how-is-the-mseloss-implemented/12972 torch在实现时非常简单,就是 ((input-target)**2).mean(),平方然后均值这个样子。 https://blog ...
分类:
其他好文 时间:
2020-03-13 01:06:40
阅读次数:
104
react中一个常见模式是一个组件返回多个元素,Fragments允许你将子列表分组,而无需像DOM添加额外的节点。 render() { return ( <React.Fragment> <ChildA /> <ChildB /> <ChildC /> </React.Fragment> ); ...
分类:
其他好文 时间:
2020-03-12 20:33:33
阅读次数:
122
第一步,先测试出最基本的比较合适的baseline模型 测试最基本的baseline模型如resnet50, efficientnet, senet等等模型,得到在暂时不进行数据增强的情况下得到一个较为出色的结果的模型(验证结果比较高同时能够对数据适当的过拟合)。这一步自己设定最为直观的Loss,o ...
分类:
其他好文 时间:
2020-03-10 21:45:18
阅读次数:
45
将所有的预测结果都归一化到 0~1, 使用 Leaky RELU 作为激活函数。 Leaky RELU的公式如下: Leaky RELU可以解决RELU的梯度消失问题。 损失函数的设计目标就是让坐标(x,y,w,h),confidence,classification 这个三个方面达到很好的平衡。 ...
分类:
其他好文 时间:
2020-03-07 13:09:25
阅读次数:
369
softmax 使用softmax的原因 以概率占比得到预测标签 标签值为离散值,离散值与输出值之间的误差无法界定 softmax的实现(指数实现) 分类的时候以概率值最高的序号(argmax)作为y_hat 损失函数(交叉熵损失函数) 交叉熵应用于分类的解析: 假设有q类,标签label为离散值k ...
分类:
其他好文 时间:
2020-03-04 17:31:10
阅读次数:
69
论文网址:https://arxiv.org/abs/1801.07698 一、介绍 基于深度卷积神经网络(Deep Convolutional Neural Networks, DCNNs)的大尺度的人脸识别的主要任务就是设计合适的损失函数以增强模型的判别能力。中心损失(Centre loss)惩 ...
分类:
其他好文 时间:
2020-03-03 22:17:56
阅读次数:
901
AlexeyAB(darknet yolov3)训练自己的数据时,在命令行中加入-map 和 -dont_show。-map 是为了把loss曲线和测试的准确率打印出来;-dont_show 是在训练中图像显示给隐藏了; @https://blog.csdn.net/qq_43487391/arti ...
分类:
其他好文 时间:
2020-03-03 10:51:27
阅读次数:
260
损失函数通过调用torch.nn包实现。 基本用法: criterion = LossCriterion() #构造函数有自己的参数 loss = criterion(x, y) #调用标准时也有参数 L1范数损失 L1Loss 计算 output 和 target 之差的绝对值。 torch.nn ...
分类:
其他好文 时间:
2020-03-02 22:37:33
阅读次数:
84
我们已经训练过几个神经网络了,识别手写数字,房价预测或者是区分猫和狗,那随之而来就有一个问题,这些训练出的网络怎么用,每个问题我都需要重新去训练网络吗?因为程序员都不太喜欢做重复的事情,因此答案肯定是已经有轮子了。 我们先来介绍一个数据集,ImageNet。这就不得不提一个大名鼎鼎的华裔 AI 科学 ...
分类:
其他好文 时间:
2020-03-02 10:42:12
阅读次数:
57
对于mnist数据集,我实现了一些简单的网络,同样在20epochs训练获得的loss和acc序号网络结构loss和acc2model = Sequential()model.add(Dense(units = 121,input_dim = 28 * 28))model.add(Activatio... ...
分类:
Web程序 时间:
2020-02-29 11:33:40
阅读次数:
124