最近找了十几篇神经网络注意力机制的论文大概读了一下。这篇博客记录一下其中一篇,这篇论文大概只看了摘要,方法,实验只是大概看了一下。文中提出一种残差级联卷积神经网络,这个网络可以分为俩部分,一种是CF-Conv(coarse-fine convolution)此结构利用了多种卷积在网络中是用来提取图像 ...
分类:
其他好文 时间:
2020-07-05 17:01:54
阅读次数:
75
Multi-View Attention Networks for Visual Dialog * 切入点:问题的重点是哪个 ,需要充分理解才能抓住重点——给定问题的语义意图 determining the semantic intent of the given question and then ...
分类:
其他好文 时间:
2020-07-04 20:39:09
阅读次数:
69
机器人软件平台平台名称所属类型EvolutionRoboticsERSP平台商用MicrosoftRoboticsStudio平台非商业用途免费OROCOS控件库开源且免费Skilligent机器学习插件商用URBI平台商用Webots仿真环境商用Player,Stage,Gazebo平台开源且免费iRobotAWARE平台商用OpenJAUS平台开源CLARAty平台开源为什么要使用机器人软件开
分类:
其他好文 时间:
2020-07-01 15:53:14
阅读次数:
82
注意力机制模仿了生物观察行为的内部过程,即一种将内部经验和外部感觉对齐从而增加部分区域的观察精细度的机制。例如人的视觉在处理一张图片时,会通过快速扫描全局图像,获得需要重点关注的目标区域,也就是注意力焦点。然后对这一区域投入更多的注意力资源,以获得更多所需要关注的目标的细节信息,并抑制其它无用信息。 ...
分类:
其他好文 时间:
2020-06-24 21:58:42
阅读次数:
69
transformer 详解Transformer (Attention Is All You Need) - 知乎 https://zhuanlan.zhihu.com/p/48508221 [整理] 聊聊 Transformer - 知乎 https://zhuanlan.zhihu.com/p ...
分类:
其他好文 时间:
2020-06-18 21:54:34
阅读次数:
65
https://www.cnblogs.com/BlueBlueSea/p/13137757.html,是我这篇文章的一个深入和展开吧 1.总结 转自:https://zhuanlan.zhihu.com/p/91839581 2.CNN/LSTM+ATT 对cnn结合att的过程不太明白。 3.适 ...
分类:
其他好文 时间:
2020-06-16 13:05:47
阅读次数:
58
3D目标检测(CVPR2020:Lidar) LiDAR-Based Online 3D Video Object Detection With Graph-Based Message Passing and Spatiotemporal Transformer Attention 论文地址: ht ...
分类:
其他好文 时间:
2020-06-14 10:26:19
阅读次数:
71
模型压缩95%:Lite Transformer,MIT韩松等人 Lite Transformer with Long-Short Range Attention Zhanghao Wu, Zhijian Liu, Ji Lin, Yujun Lin, Song Han 论文地址:https://a ...
分类:
其他好文 时间:
2020-06-09 09:18:52
阅读次数:
63
1.Transformer结构 //这里为什么有两个output??什么意思?已经完全看不懂了。。 Transformer使用栈式自注意力机制,编码器和解码器的逐点完全连接层。 https://www.jianshu.com/p/e7d8caa13b21,这篇有讲到,Encoder的输出可以变换为注 ...
分类:
其他好文 时间:
2020-05-29 22:52:47
阅读次数:
74
1.概述 A Neural Attention Model for Sentence Summarization是一个用于处理文本总结的模型,是基于seq2seq提出的,论文地址https://www.aclweb.org/anthology/D15-1044.pdf 2.模型 3.模型公式 目标: ...
分类:
其他好文 时间:
2020-05-28 01:06:36
阅读次数:
68