码迷,mamicode.com
首页 > 其他好文 > 详细

VGG梳理

时间:2019-11-22 09:14:19      阅读:101      评论:0      收藏:0      [点我收藏+]

标签:load   精度   结构   image   core   提高   -o   线性   适应   

创新点(小卷积核、小池化核、层数更深、全连接变卷积)

  • 对AlexNet改进,在第一个卷积层中使用了更小的卷积核和卷积stride
  • 多尺度(训练和测试时,采用图片的不同尺度(当然是按各向同性缩放的最小边划定标准))
  • 层数深
  • 测试阶段,将三个全连接变为三个卷积层,以适应任何大小的图片输入(最后那里是score map求平均)

不同层次的网络结构

技术图片
从上图可以看出,依旧延续了AlexNet的5-3结构(5个卷积快,3个全连接,其中最后一个是输出)

实验结果

技术图片
技术图片

  • LRN无用
  • 加深网络,可以提高精度
  • 多尺度输入(训练)可以提高精度
  • 多尺度测试也可以提高精度(多尺度训练、多尺度测试合称尺度抖动)
  • 融合dense evaluation和multi-scale evaluation效果好
    dense evaluation表示不进行224×224的裁剪,直接放入网络,全连接改为卷积

感受野的大小

卷积神经网络特征图上的像素点映射回原图上的大小

两个问题

Q1:为什么使用3×3的卷积核
(1)减小参数量,若生成相同大小的特征图,三个3×3的卷积相当于一个7×7的卷积:
3×(C×3×3×C)=27C2

C×7×7×C = 49C2
(2)激活层增加,增加非线性

Q2:1×1卷积核的作用
(1)一种为决策增加非线性因素的方式
(2)调整网络的维度扩维或者缩小维度

VGG梳理

标签:load   精度   结构   image   core   提高   -o   线性   适应   

原文地址:https://www.cnblogs.com/liuboblog/p/11909379.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!