本文在调参记录21的基础上,增加卷积核的个数,也就是增加深度神经网络的宽度,继续尝试深度残差网络+自适应参数化ReLU激活函数在Cifar10数据集上的效果。 自适应参数化ReLU激活函数的原理如下: Keras程序: #!/usr/bin/env python3 # -*- coding: utf ...
分类:
其他好文 时间:
2020-05-19 12:45:06
阅读次数:
50
在调参记录14里,只有2个残差模块,结果遭遇欠拟合了。这次增加一个残差模块试试。 自适应参数化ReLU激活函数的基本原理如下: Keras程序如下: #!/usr/bin/env python3 # -*- coding: utf-8 -*- """ Created on Tue Apr 14 04 ...
分类:
其他好文 时间:
2020-05-19 10:32:50
阅读次数:
56
续上一篇:深度残差网络+自适应参数化ReLU激活函数(调参记录7)https://www.cnblogs.com/shisuzanian/p/12907617.html本文将层数设置得很少,只有两个残差模块,测试Adaptively Parametric ReLU(APReLU)激活函数在Cifar ...
分类:
其他好文 时间:
2020-05-18 01:09:52
阅读次数:
74
本文在调参记录6的基础上,继续调整超参数,测试Adaptively Parametric ReLU(APReLU)激活函数在Cifar10图像集上的效果。 深度残差网络+自适应参数化ReLU激活函数(调参记录6)https://www.cnblogs.com/shisuzanian/p/129074 ...
分类:
其他好文 时间:
2020-05-18 00:35:17
阅读次数:
69
本文采用了深度残差网络和自适应参数化ReLU激活函数,构造了一个网络(有9个残差模块,卷积核的个数比较少,最少是8个,最多是32个),在Cifar10数据集上进行了初步的尝试。 其中,自适应参数化ReLU激活函数原本是应用在基于振动信号的故障诊断,是参数化ReLU的一种改进,其基本原理如下图所示: ...
分类:
其他好文 时间:
2020-05-17 21:49:35
阅读次数:
66
无论是风控,抑或自然语言处理,计算机视觉等等各领域,数据的不均衡分布始终都是我们要面对的问题,智能风控也可以从其他领域借鉴好的做法来提升我们的模型。随着”新基建”的积极推进和5G的蓄势待发,数据将伴随着时代的浪潮不可避免地激增,如何科学地处理数据,快速地计算,精准地处理,稳健地部署将是值得从业者们一直关注的问题,我们也将作为先行者和践行者,去实践,去创造,去分享。
分类:
其他好文 时间:
2020-04-10 10:32:19
阅读次数:
217
DenseNet与残差网络(ResNet)有区别也类似。区别如下: 在跨层连接上:ResNet(左)使?相加;DenseNet(右)使?连结。 DenseNet将模块 A 直接跟模块 B 后?的所有层连接在了?起。这也是它被称 为“稠密连接”的原因。 DenseNet的主要构建模块是稠密块(dens ...
分类:
Web程序 时间:
2020-03-28 23:51:21
阅读次数:
227
FPN 实现原理 为什么叫金字塔方式理解。和残差网络的前向传播过程类似 待办特征金字塔原理:深层特征提取和浅层特征提取相结合,深层提取的特征+浅层的特征的融合,采用上采样的方式进行融合https://zhuanlan.zhihu.com/p/41794688 ...
分类:
其他好文 时间:
2020-02-29 22:22:06
阅读次数:
110
论文题目:Deep residual shrinkage networks for fault diagnosis 题目翻译:基于深度残差收缩网络的故障诊断 期刊:IEEE Transactions on Industrial Informatics 面向问题:强噪声(或冗余信息繁多) 创新:①在深 ...
分类:
其他好文 时间:
2020-02-03 13:52:39
阅读次数:
107