插入损耗(Insertion Loss):由于滤波器的引入对电路中原有信号带来的衰耗。 通带纹波:频响中通带的最大幅值和最小幅值之间的差值。正常的纹波一般小于1db。不过也视情况而言,通带纹波会导致通带内的幅值大小有变化,一般要求越高,纹波越小越好。通带纹波和滤波器的阶数有关系,阶数越大纹波越小。表 ...
分类:
其他好文 时间:
2020-05-05 23:17:42
阅读次数:
166
1 # 利用鸢尾花数据集,实现前向传播、反向传播,可视化loss曲线 2 3 # 导入所需模块 4 import tensorflow as tf 5 from sklearn import datasets 6 from matplotlib import pyplot as plt 7 impo ...
分类:
其他好文 时间:
2020-05-03 20:43:40
阅读次数:
80
1 # 利用鸢尾花数据集,实现前向传播、反向传播,可视化loss曲线 2 3 # 导入所需模块 4 import tensorflow as tf 5 from sklearn import datasets 6 from matplotlib import pyplot as plt 7 %mat ...
分类:
其他好文 时间:
2020-05-03 20:11:54
阅读次数:
75
损失函数(loss function)是用来估量你模型的预测值f(x)与真实值Y的不一致程度,衡量模型预测的好坏。它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。 损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。模型的结构风险函数包括了经验 ...
分类:
其他好文 时间:
2020-05-03 10:40:11
阅读次数:
153
经验分布,也可以考虑有单个顶点、边,或局部的? loss 怎么定的问题 【Graph Embedding】LINE:算法原理,实现和应用 之前介绍过DeepWalk,DeepWalk使用DFS随机游走在图中进行节点采样,使用word2vec在采样的序列学习图中节点的向量表示。 DeepWalk:算法 ...
分类:
编程语言 时间:
2020-04-29 14:28:15
阅读次数:
110
摘要 在损失函数计算的过程中,需要对模型的输出即 feats进行相关信息的计算。 在yolo_head中 当前小网格相对于大网格的位置(也可以理解为是相对于特征图的位置) loss的计算时每一层结果均与真值进行误差的累加计算。 YOLO v3的损失函数与v1 的损失函数略有不同。损失函数的计算是在对 ...
分类:
其他好文 时间:
2020-04-28 17:14:25
阅读次数:
324
Loss函数 定义: 用法很简单,就是计算均方误差平均值,例如 Metrics函数 Metrics函数也用于计算误差,但是功能比Loss函数要复杂。 定义 这个定义过于简单,举例说明 输出结果 这个结果等价于 这是因为Metrics函数是 状态函数 ,在神经网络训练过程中会持续不断地更新状态,是有记 ...
分类:
其他好文 时间:
2020-04-22 19:55:00
阅读次数:
308
我做的是一个识别验证码的深度学习模型,识别的图片如下 验证码图片识别4个数字,数字间是有顺序的,设立标签时设计了四个onehot向量链接起来,成了一个长度为40的向量,然后模型的输入也是40维向量用softmax_cross_entropy_with_logits(labels=,logits=)函 ...
分类:
其他好文 时间:
2020-04-20 16:15:30
阅读次数:
285
无论是风控,抑或自然语言处理,计算机视觉等等各领域,数据的不均衡分布始终都是我们要面对的问题,智能风控也可以从其他领域借鉴好的做法来提升我们的模型。随着”新基建”的积极推进和5G的蓄势待发,数据将伴随着时代的浪潮不可避免地激增,如何科学地处理数据,快速地计算,精准地处理,稳健地部署将是值得从业者们一直关注的问题,我们也将作为先行者和践行者,去实践,去创造,去分享。
分类:
其他好文 时间:
2020-04-10 10:32:19
阅读次数:
217
Huber Loss 是一个用于回归问题的带参损失函数, 优点是能增强平方误差损失函数(MSE, mean square error)对离群点的鲁棒性。 当预测偏差小于 δ 时,它采用平方误差,当预测偏差大于 δ 时,采用的线性误差。 相比于最小二乘的线性回归,HuberLoss降低了对离群点的惩罚 ...
分类:
其他好文 时间:
2020-04-05 09:22:37
阅读次数:
64