码迷,mamicode.com
首页 > 其他好文 > 详细

计算机视觉中的注意力相关论文

时间:2020-07-16 00:26:25      阅读:115      评论:0      收藏:0      [点我收藏+]

标签:squeeze   png   object   一个   kernel   transform   级别   beyond   pdf   

1、The Application of Two-level Attention Models in Deep Convolutional Neural Network for Fine-grained Image Classification

地址:https://arxiv.org/pdf/1411.6447.pdf

技术图片

object-level和part-level两个级别分别对图像进行分类,将得到的分数相加综合后得到最后的分类结果。 

2、Spatial Transformer Networks 

技术图片

技术图片

通过注意力机制,将原始图片中的空间信息变换到另一个空间中并保留了关键信息。

3、 Squeeze-and-Excitation Networks

技术图片

通道注意力机制。

4、Residual Attention Network for Image Classification

技术图片

5、non-locla neural networks

技术图片

CNN中的 convolution单元每次只关注邻域 kernel size 的区域,就算后期感受野越来越大,终究还是局部区域的运算,这样就忽略了全局其他片区(比如很远的像素)对当前区域的贡献。

6、interaction-ware attention 

7、CBAM: Convolutional Block Attention Module

技术图片技术图片

空间注意力和通道注意力混合。 

8、DANet:Dual Attention Network for Scene Segmentation

技术图片

9、Criss-Cross Attention for Semantic Segmentation

技术图片

10、OCNet: Object Context Network for Scene Parsing

技术图片

11、GCNet:Non-local Networks Meet Squeeze-Excitation Networks and Beyond

技术图片

12、attention augmented convolutional networks

技术图片

13、PAN: Pyramid Attention Network for Semantic Segmentation

技术图片

技术图片

技术图片

14、 Fully Convolutional Attention Networks for Fine-Grained Recognition

技术图片

15、BAM: Bottleneck Attention Module

技术图片

16、selective kernel networks

技术图片

计算机视觉中的注意力相关论文

标签:squeeze   png   object   一个   kernel   transform   级别   beyond   pdf   

原文地址:https://www.cnblogs.com/xiximayou/p/13308381.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!