流程图如下: 说明: 1: OGG同步表清单 表名 注释 数据量 表大小/GB SH_LOSS_MID.LOSS_YC_MRCJDLDJSJ_CONSGZB 日冻结电量 8900467833 561.39 SH_LOSS.C_METER_MP_RELA 表计关系表 13778340 0.7 SH_L ...
分类:
其他好文 时间:
2020-04-03 12:16:05
阅读次数:
75
Reference: https://developers.google.com/machine-learning/crash-course/reducing-loss/learning-rate Learning Rate 正如之前所述,梯度矢量具有方向和大小。梯度下降法算法用梯度乘以一个称为学习 ...
分类:
其他好文 时间:
2020-04-02 15:51:48
阅读次数:
91
在论文中,经常可以看到各类改进方法会使用新的损失函数。在pytorch平台中,要实现论文中自定义的损失函数,有几种方式 ...
分类:
其他好文 时间:
2020-03-30 23:17:53
阅读次数:
109
loss:训练集损失值 accuracy:训练集准确率 val_loss:测试集损失值 val_accruacy:测试集准确率 以下5种情况可供参考: train loss 不断下降,test loss不断下降,说明网络仍在学习;(最好的) train loss 不断下降,test loss趋于不变 ...
分类:
其他好文 时间:
2020-03-29 12:24:26
阅读次数:
452
YOLOv1是一个anchor free的,从YOLOv2开始引入了Anchor,在VOC2007数据集上将mAP提升了10个百分点。YOLOv3也继续使用了Anchor,本文主要讲ultralytics版YOLOv3的Loss部分的计算, 实际上这部分loss和原版差距非常大,并且可以通过arc指 ...
分类:
其他好文 时间:
2020-03-29 10:53:59
阅读次数:
95
在训练神经网络时,我们常常希望在图中看到loss减小的动态过程,这时我们可用plt.ion()函数打开交互式模式,在交互式模式下可动态地展示图像。 例一:动态画图 import matplotlib.pyplot as plt x = list(range(1, 21)) # epoch array ...
分类:
其他好文 时间:
2020-03-25 00:52:48
阅读次数:
75
l2_loss()这个函数的作用是利用L2范数来计算张量的误差值,但是没有开发并且只取L2范数的值的一半 函数: tf.nn.l2_loss( t, name=None ) 参数: t:一个张量(tensor),类型可以为:half, bfloat16, float32, float64 name: ...
分类:
其他好文 时间:
2020-03-23 14:59:27
阅读次数:
102
具体公式和思想可以看 https://www.cnblogs.com/itmorn/p/11254448.html 先说结果:label平滑可以减小过拟合 说白了,这个平滑就是一定程度缩小label中min和max的差距。损失函数实际上就是鼓励模型去接近对应的label,越接近loss越小,巴不得l ...
分类:
其他好文 时间:
2020-03-18 22:11:45
阅读次数:
102
ML Agents(二)创建一个学习环境 一、前言 上一节我们讲了如何配置ML Agents环境,这一节我们创建一个示例,主要利用Reinforcement Learning(强化学习)。 如上图,本示例将训练一个球滚动找到随机放置的立方体,而且要避免从平台上掉下去。 本示例是基于ML Agents ...
分类:
其他好文 时间:
2020-03-16 23:11:42
阅读次数:
67
很玄学,没有修改参数,在test上的准确率从98%多变为99.1%了 参考链接:《简单粗暴Tensorflow》,狂吹 import tensorflow as tf import numpy as np class MNISTLoader(): def __init__(self): mnist ...
分类:
其他好文 时间:
2020-03-15 20:24:21
阅读次数:
74