1*1的卷积核在NIN、Googlenet中被广泛使用,但其到底有什么作用也是一直困扰的问题,这里总结和归纳下在网上查到的自认为很合理的一些答案,包括1)跨通道的特征整合2)特征通道的升维和降维 3)减少卷积核参数(简化模型) 1 - 引入 在我学习吴恩达老师Deeplearning.ai深度学习课 ...
分类:
其他好文 时间:
2018-09-18 00:28:07
阅读次数:
193
Squeeze-and-Excitation Networks SE-net 来自于Momenta 1 SE-net的灵感 VGG 网络将 Alexnet 7*7 和 5*5 替换成了3*3 的卷积核 Wide Resnet如下右: 除此之外,GoogleNet 内部inxeption 实际使用的是 ...
分类:
其他好文 时间:
2018-09-17 19:35:03
阅读次数:
328
转自https://blog.csdn.net/u014114990/article/details/50767786 从NIN 到Googlenet mrsa net 都是用了这个,为什么呢 发现很多网络使用了1X1卷积核,这能起到什么作用呢?另外我一直觉得,1X1卷积核就是对输入的一个比例缩放, ...
分类:
其他好文 时间:
2018-09-14 00:01:04
阅读次数:
209
随着深度学习的普及开来,设计一个网络结构变得越来越“简单”,如果一个新的网络只是简单的卷积、池化、全连接,改改其中的参数,那就大错特错了。所以网络在应用中,往往要面临的问题是:如何设计一个好的网络结构。 目前常见的网络结构:AlexNet、ZF、GoogLeNet、VGG、ResNet等等都可谓曾一 ...
分类:
其他好文 时间:
2018-09-03 13:50:10
阅读次数:
226
GoogleNet的发展 Inception V1: Inception V1中精心设计的Inception Module提高了参数的利用率;nception V1去除了模型最后的全连接层,用全局平均池化层(将图片尺寸变为1x1),在先前的网络中,全连接层占据了网络的大部分参数,很容易产生过拟合现象 ...
分类:
Web程序 时间:
2018-08-24 22:15:25
阅读次数:
296
VGGNet 是牛津大学计算机视觉组(Visual Geometry Group)和 GoogleDeepMind 公司的研究员一起研发的的深度卷积神经网络。 在ImageNet大型视觉识别挑战 ILSVRC 2014 中定位任务第一名和分类任务第二名(第一名是 GoogLeNet ,也是同年提出的 ...
分类:
Web程序 时间:
2018-06-17 10:53:14
阅读次数:
1734
CNN从90年代的LeNet开始,21世纪初沉寂了10年,直到12年AlexNet开始又再焕发第二春,从ZF Net到VGG,GoogLeNet再到ResNet和最近的DenseNet,网络越来越深,架构越来越复杂,解决反向传播时梯度消失的方法也越来越巧妙。 1、LeNet(1998) 闪光点:定义 ...
分类:
Web程序 时间:
2018-05-16 11:04:44
阅读次数:
371
虽然网络性能得到了提高,但随之而来的就是效率问题(AlexNet VGG GoogLeNet Resnet DenseNet) 效率问题主要是模型的存储问题和模型进行预测的速度问题. Model Compression: 从模型权重数值角度压缩 从网络架构角度压缩 对于效率问题,通常的方法即在已经训... ...
分类:
Web程序 时间:
2018-05-15 22:42:27
阅读次数:
411
我从零开始训练了GoogLeNet模型。 但它没有给我带来希望的结果。 作为替代,我想对我的数据集中的GoogLeNet模型进行微调。 有谁知道我应该遵循什么步骤? 我从零开始训练了GoogLeNet模型。 但它没有给我带来希望的结果。 作为替代,我想对我的数据集中的GoogLeNet模型进行微调。 ...
分类:
Web程序 时间:
2018-05-08 17:40:53
阅读次数:
589
GoogleNet设计的目的 GoogleNet设计的初衷是为了提高在网络里面的计算资源的利用率。 Motivation 网络越大,意味着网络的参数较多,尤其当数据集很小的时候,网络更容易发生过拟合。网络越大带来的另一个缺点就是计算资源的利用率会急剧增加。例如,如果两个卷积层是串联的,他们滤波器数量 ...
分类:
Web程序 时间:
2018-05-02 02:51:05
阅读次数:
282