码迷,mamicode.com
首页 >  
搜索关键字:梯度    ( 2016个结果
逻辑回归
逻辑回归 一、什么是逻辑回归 是用于处理因变量为分类变量的回归问题,常见的是二分类或二项分布问题,也可以处理多分类问题,它实际上是属于一种分类方法。主要思想是用最大似然概率方法构造方差,为最大化方差,利用牛顿梯度上升求解方差参数。 优缺点如下: 1 优点:计算代价不高,易于理解和实现。 2 缺点:容 ...
分类:其他好文   时间:2020-08-07 12:31:57    阅读次数:64
80 道大厂算法高频面试题
CV: 1. 常见的模型加速方法 2. 目标检测里如何有效解决常见的前景少背景多的问题 3. 目标检测里有什么情况是SSD、YOLOv3、Faster R-CNN等所不能解决的,假设网络拟合能力无限强 4. ROIPool和ROIAlign的区别 5. 介绍常见的梯度下降优化方法 6. Detect ...
分类:编程语言   时间:2020-08-04 09:55:07    阅读次数:91
比较Adam 和Adamw
引用自: https://www.lizenghai.com/archives/64931.html AdamW AdamW是在Adam+L2正则化的基础上进行改进的算法。使用Adam优化带L2正则的损失并不有效。如果引入L2正则项,在计算梯度的时候会加上对正则项求梯度的结果。 那么如果本身比较大的 ...
分类:其他好文   时间:2020-08-03 13:31:44    阅读次数:141
深度学习基础
激活函数:增加非线性 如果不用激活函数,每一层节点的输入都是上层输出的线性函数。无论神经网络有多少层,输出都是输入的线性组合,与没有隐藏层效果相当,因此网络的逼近能力就相当有限。 Sigmoid: 将输入的连续实值变换为0-1的输出。反向传播中易发生梯度消失,输出不对称(只输出正值) tanh: 输 ...
分类:其他好文   时间:2020-07-31 14:08:43    阅读次数:104
第十九天学习进度--简单线性函数提取并模拟计算机复杂图像识别函数
昨天实现了一个计算机函数的提取过程,不过就函数提取的公式而言,因为用的是sklearn提供的多元线性回归分析函数,其中有最小二乘法和梯度下降的模拟。 但是无论是上述的哪种函数的模拟,一旦针对一些相对而言比较复杂的多元非线性问题,就很有可能不能发挥出函数提取的功能了。要做到一种精度比较高的模拟图像识别 ...
分类:其他好文   时间:2020-07-29 10:04:19    阅读次数:67
从0开始的机器学习——梯度下降法(3)
在解决问题中,θ可能不是一个值,可能是一个向量,所以在求导的时候可以写成求梯度的形式,求函数在每个方向上的偏导数。 其实和上一节处理的问题也相似,只不过这个处理的不是一个数,是一个向量。 这是一个三元函数的曲线图。图中的红色圈圈就是函数曲线。假如起始点从左上角那个点出发,一直到数值最低的点,其实这个 ...
分类:其他好文   时间:2020-07-27 23:56:02    阅读次数:90
Pytorch中adam优化器的参数问题
之前用的adam优化器一直是这样的: alpha_optim = torch.optim.Adam(model.alphas(), config.alpha_lr, betas=(0.5, 0.999), weight_decay=config.alpha_weight_decay) 没有细想内部参 ...
分类:其他好文   时间:2020-07-27 17:57:09    阅读次数:187
GBDT
一、简介 GBDT为梯度提升树,是提升树的一种改进形式。 二、算法原理 (1)初始化弱模型 $$f_{0}(x_{i})=arg\min_{c}\sum_{i=1}^{N}L(y_{i},c)$$ (2)在第m轮模型的计算中 (a)对每个样本i,计算负梯度 $$r_{im}=-\frac{\part ...
分类:其他好文   时间:2020-07-26 15:34:37    阅读次数:80
回归|深度学习(李宏毅)(一)
一、偏差和方差 欠拟合的loss主要来自偏差 过拟合的loss主要来自方差 应对大的偏差的方法: 增加更多特征作为输入 使用更复杂的模型 应对大的方差的方法: 更多数据 正则化 k折交叉验证 二、梯度下降 Adagrad 二次微分大的点梯度虽然大但是可能会比梯度小的点离极值点更近,因此学习率需要考虑 ...
分类:其他好文   时间:2020-07-22 20:53:23    阅读次数:106
AI面试之SVM推导
SVM现在主流的有两个方法。一个是传统的推导,计算支持向量求解的方法,一个是近几年兴起的梯度下降的方法。 梯度下降方法的核心是使用了hinge loss作为损失函数,所以最近也有人提出的深度SVM其实就是使用hinge loss的神经网络。 本文的目的是讲解传统的推导。 SVM的超平面 SVM模型的 ...
分类:其他好文   时间:2020-07-22 20:16:36    阅读次数:68
2016条   上一页 1 ... 5 6 7 8 9 ... 202 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!