极光行动漏洞背景极光行动(英语:Operation Aurora)或欧若拉行动是2009年12月中旬可能源自中国的一场网络攻击,其名称“Aurora”(意为极光、欧若拉)来自攻击者电脑上恶意文件所在路径的一部分。遭受攻击的除了Google外,还有20多家公司:其中包括Adobe Systems、Ju... ...
分类:
其他好文 时间:
2019-09-16 16:29:49
阅读次数:
264
1、参数更新 SGD、Momentum、AdaGrad(学习率衰减)、Adam 2、权重初始值 Xavier初始值(sigmoid、tanh)、He初始值(relu) 3、Batch Normalization 4、正则化 5、权重衰减 6、Dropout 7、超参数(贝叶斯最优化) 设定超参数的范 ...
分类:
其他好文 时间:
2019-09-03 11:31:33
阅读次数:
105
百度正式发布PaddlePaddle深度强化学习框架PARL 近日,百度PaddlePaddle正式发布了深度强化学习框架 PARL,同时开源了基于该框架的、在 NeurIPS 2018 强化学习赛事中夺冠的模型完整训练代码。 项目地址如下:https://github.com/PaddlePadd ...
分类:
其他好文 时间:
2019-09-02 09:25:58
阅读次数:
130
package com.trsmedia.service; import java.io.FileInputStream; import java.io.FileOutputStream; import java.io.IOException; import java.io.InputStream;... ...
分类:
其他好文 时间:
2019-08-28 18:24:00
阅读次数:
119
Description 题解 论文题 (戳我) 代码 ...
分类:
其他好文 时间:
2019-08-19 09:52:04
阅读次数:
73
论文:https://arxiv.org/pdf/1811.05233.pdf 译文:大规模分布式SGD:瞬间训练完基于ImageNet的ResNet50 摘要 由于大mini-batch训练的不稳定性(为什么不稳定?),和梯度同步的开销,深度学习分布式训练很难线性扩展到拥有大量GPU的集群。我们通 ...
分类:
Web程序 时间:
2019-08-17 14:17:26
阅读次数:
219
梯度下降法(Gradient Descent) 优化思想:用当前位置的负梯度方向作为搜索方向,亦即为当前位置下降最快的方向,也称“最速下降法”。越接近目标值时,步长越小,下降越慢。 如下图所示,梯度下降不一定能找到全局最优解,可能寻找到的是局部最优解。(当损失函数是凸函数时,梯度下降得到的解一定是全 ...
分类:
其他好文 时间:
2019-08-07 22:28:45
阅读次数:
186
**序言:**Adam自2014年出现之后,一直是受人追捧的参数训练神器,但最近越来越多的文章指出:Adam存在很多问题,效果甚至没有简单的SGD + Momentum好。因此,出现了很多改进的版本,比如AdamW,以及最近的ICLR-2018年最佳论文提出的Adam改进版Amsgrad。那么,Ad ...
分类:
其他好文 时间:
2019-07-25 10:50:05
阅读次数:
107
Optimizer SGD Momentum Nesterov(牛顿动量) 二.自适应参数的优化算法 这类算法最大的特点就是,每个参数有不同的学习率,在整个学习过程中自动适应这些学习率。 AdaGrad RMSProp Adam 二阶近似的优化算法 牛顿法 共轭梯度法 BFGS LBFGS ...
分类:
编程语言 时间:
2019-07-23 15:21:57
阅读次数:
127