为什么如果待分类类别是10个,类别范围可以设置成(9,11)11的解释:有一个背景分类的过程9的解释是:?这个主要看损失函数设计对于类别的解释性 ...
分类:
其他好文 时间:
2020-03-27 00:51:56
阅读次数:
60
正则化 --在原有损失函数的基础上加上一个正则化项 通常用到的有均方根误差rmse和平均绝对误差mae 通过限制参数过多或者过大,避免模型更加复杂,简单来说就是降低模型的泛化错误率,避免模型过拟合 L1与L2的区别 L1可以实现让参数矩阵稀疏, 且L1正则化的损失函数不不是连续可导的, L2也称岭回 ...
分类:
其他好文 时间:
2020-03-20 17:05:12
阅读次数:
74
https://www.bilibili.com/video/av89601743 哔哩哔哩上面有一位道友专门针对《简单粗暴》分享了他的个人经验,我也跟着复习了一遍,挑一些重点的记录一下 这是一个工程师的角度,从开发的角度理解t f的构建 其实求梯度、导数、斜率都差不多的概念 然后是求他们的损失函数 ...
分类:
其他好文 时间:
2020-03-20 16:53:08
阅读次数:
106
具体公式和思想可以看 https://www.cnblogs.com/itmorn/p/11254448.html 先说结果:label平滑可以减小过拟合 说白了,这个平滑就是一定程度缩小label中min和max的差距。损失函数实际上就是鼓励模型去接近对应的label,越接近loss越小,巴不得l ...
分类:
其他好文 时间:
2020-03-18 22:11:45
阅读次数:
102
详细推导线性回归 关键词:线性回归; linear Regression. 绪论 根据李航的归纳,机器学习模型有三要素,分别是:模型、策略和算法。为了简单好记,本文认为,在线性回归问题中,模型、策略和算法可以做如下简记: 模型 = 模型 策略 = 损失函数 + 优化目标 算法 = 解析解/数值计算方 ...
分类:
其他好文 时间:
2020-03-17 23:51:18
阅读次数:
74
1. GAN为什么难以训练? 大多深度模型的训练都使用优化算法寻找损失函数比较低的值。优化算法通常是个可靠的“下山”过程。生成对抗神经网络要求双方在博弈的过程中达到势均力敌(均衡)。每个模型在更新的过程中(比如生成器)成功的“下山”,但同样的更新可能会造成博弈的另一个模型(比如判别器)“上山”。甚至 ...
分类:
其他好文 时间:
2020-03-12 14:37:20
阅读次数:
102
一.线性回归实现总结 手动实现线性回归,损失函数,梯度下降优化函数 线性回归是神经网络的基石,每一个神经元都可以看作是一个线性回归 https://www.cnblogs.com/xieviki650/p/ML_Linear-regression.html 推荐李宏毅老师的机器学习视频,结合视频和作 ...
分类:
其他好文 时间:
2020-03-08 19:46:48
阅读次数:
79
感知机属于有监督的学习,生成的模型称为判别模型。其通过特定的函数将输入的特征向量,输出为实例的类别(+1或-1),该函数即为将实例划分为两类的分离超平面。为获得最优化的超平面,感知机引入了基于误分类的损失函数。感知机是神经网络和支持向量机的基础。 有监督学习分为生成模型和判别模型两种。其分别含义如下 ...
分类:
其他好文 时间:
2020-03-07 20:30:43
阅读次数:
122
将所有的预测结果都归一化到 0~1, 使用 Leaky RELU 作为激活函数。 Leaky RELU的公式如下: Leaky RELU可以解决RELU的梯度消失问题。 损失函数的设计目标就是让坐标(x,y,w,h),confidence,classification 这个三个方面达到很好的平衡。 ...
分类:
其他好文 时间:
2020-03-07 13:09:25
阅读次数:
369
softmax 使用softmax的原因 以概率占比得到预测标签 标签值为离散值,离散值与输出值之间的误差无法界定 softmax的实现(指数实现) 分类的时候以概率值最高的序号(argmax)作为y_hat 损失函数(交叉熵损失函数) 交叉熵应用于分类的解析: 假设有q类,标签label为离散值k ...
分类:
其他好文 时间:
2020-03-04 17:31:10
阅读次数:
69