@[toc] 0. 论文链接 "论文链接" 1. 概述 VGG提出了相对AlexNet更深的网络模型,并且通过实验发现网络越深性能越好(在一定范围内)。在网络中,使用了更小的卷积核(3x3),stride为1,同时不单单的使用卷积层,而是组合成了“卷积组”,即一个卷积组包括2 ...
分类:
Web程序 时间:
2018-10-15 18:21:39
阅读次数:
440
@[toc] 0. 论文链接 1. 概述 AlexNet算是第一个把CNN应用到计算机视觉领域并且十分成功。从这开始之后,开启了深度学习的浪潮,计算机视觉的主要方向也是利用深度学习来解决一系列问题,本文提出了一种5个卷积层(某些层跟着池化层),3个全连接层最后跟着1000 w ...
分类:
Web程序 时间:
2018-10-13 02:30:27
阅读次数:
292
卷积神经网络可谓是现在深度学习领域中大红大紫的网络框架,尤其在计算机视觉领域更是一枝独秀。CNN从90年代的LeNet开始,21世纪初沉寂了10年,直到12年AlexNet开始又再焕发第二春,从ZF Net到VGG,GoogLeNet再到ResNet和最近的DenseNet,网络越来越深,架构越来越 ...
分类:
其他好文 时间:
2018-09-29 00:42:29
阅读次数:
221
Squeeze-and-Excitation Networks SE-net 来自于Momenta 1 SE-net的灵感 VGG 网络将 Alexnet 7*7 和 5*5 替换成了3*3 的卷积核 Wide Resnet如下右: 除此之外,GoogleNet 内部inxeption 实际使用的是 ...
分类:
其他好文 时间:
2018-09-17 19:35:03
阅读次数:
328
随着深度学习的普及开来,设计一个网络结构变得越来越“简单”,如果一个新的网络只是简单的卷积、池化、全连接,改改其中的参数,那就大错特错了。所以网络在应用中,往往要面临的问题是:如何设计一个好的网络结构。 目前常见的网络结构:AlexNet、ZF、GoogLeNet、VGG、ResNet等等都可谓曾一 ...
分类:
其他好文 时间:
2018-09-03 13:50:10
阅读次数:
226
前言 本文与前文对手写数字识别分类基本类似的,同样图像作为输入,类别作为输出。这里不同的是,不仅仅是使用简单的卷积神经网络加上全连接层的模型。卷积神经网络大火以来,发展出来许多经典的卷积神经网络模型,包括VGG、ResNet、AlexNet等等。下面将针对CIFAR-10数据集,对图像进行分类。 1 ...
分类:
其他好文 时间:
2018-08-29 10:48:19
阅读次数:
686
我们知道,对于pytorch上的搭建动态图的代码的可读性非常高,实际上对于一些比较简单的网络,比如alexnet,vgg阅读起来就能够脑补它们的网络结构,但是对于比较复杂的网络,如unet,直接从代码脑补网络结构可能就比较吃力 tensorflow上的tensorboard进行计算图的可视化可谓是非 ...
分类:
其他好文 时间:
2018-08-17 23:28:54
阅读次数:
1042
[1] Z. Zhou, Y. Huang, W. Wang, L. Wang, T. Tan, Ieee, See the Forest for the Trees: Joint Spatial and Temporal Recurrent Neural Networks for Video-ba... ...
分类:
Web程序 时间:
2018-07-29 12:54:48
阅读次数:
582
理解为什么要将全连接层转化为卷积层 1.全连接层可以视作一种特殊的卷积 考虑下面两种情况: 1. 特征图和全连接层相连,AlexNet经过五次池化后得到7\ 7\ 512的特征图,下一层全连接连向4096个神经元,这个过程可以看做有4096个7\ 7\ 512的卷积核和7\ 7\ 512的特征图进行 ...
分类:
其他好文 时间:
2018-07-23 22:06:09
阅读次数:
159
一、Alexnet 二、Inception 三、VGG 四、Resnet ...
分类:
其他好文 时间:
2018-07-22 17:08:16
阅读次数:
160