标签:
http://www.gageet.com/2014/09203.php这个网址已都经把文章翻译好了,这里主要是说两点:
1.Googlenet借鉴了network in network里的多层感知器结构,也就是convolution层的 kernel_size=1,它的好处主要是体现在以下两方面:
a.降维,解决计算瓶颈;
b.提高神经网络的表达能力(多层感知器)。
2.Googlenet有一点突破就是对数据卷积核进行并联(多尺度的对图像进行卷积),考虑到计算的时间问题,底层用大卷积核(7*7),上层用小卷积核(3*3,5*5),值得借鉴啊。
最后,引用知乎上一为大牛讲解 Googlenet话:http://www.zhihu.com/question/27393324
正如文章中所写,增加网络宽度的好处,来源于不同尺度的卷积核并联,从而实现了对multi-scale特征的利用,也就是文章中Figure 2(a),给出的inception module的结构。但是较大尺度卷积核的使用,会带来网络规模以及计算量的增加。这里作者提出了采用小卷积核和大卷积核级联的方法,来压缩模型的参数量,也就是文中的Figure 2(b)。
going deeper with convolutions (Googlenet网络解读)
标签:
原文地址:http://blog.csdn.net/l494926429/article/details/51366128