码迷,mamicode.com
首页 >  
搜索关键字:论文    ( 5578个结果
ACL2020 奇葩论文标题大赏
又是一年一度的ACL,之前通过卖萌屋Arxiv服务已经零零碎碎看了一些,还是准备刷一下论文list,看看哪篇能让我的模型效果一飞冲天。中奖论文list:https://acl2020.org/program/accepted刷呀刷呀,不是XXBERT:XXX,就是AXX-basedXXforXX,果然NLP人的世界还是那么枯燥无味。突然,一个标题吸引了我:TwoBirds,OneStone:ASi
分类:其他好文   时间:2020-12-29 11:10:27    阅读次数:0
[顶会论文]IROS2019机器人学习相关论文汇总
1.3D Deformable Object Manipulation Using Deep Neural Networks 摘要:由于其高二维性,可变形对象操纵是机器人技术中的一个难题。在本文中,我们提出了一种基于深度神经网络的控制器,以伺服控制具有未知变形特性的可变形物体的位置和形状。特别是,使 ...
分类:其他好文   时间:2020-12-28 10:51:58    阅读次数:0
【论文阅读】Mixed Precision Training
【GiantPandaCV导语】混合精度是一个非常简单并且实用的技术,由百度和谷歌联合发表于ICLR2018,可以让模型以半精度的方式训练模型,既能够降低显存占用,又可以保持精度。这篇文章不是最先提出使用更低精度来进行训练,但是其影响力比较深远,很多现在的方案都是基于这篇文章设计的。 1. 摘要 提 ...
分类:其他好文   时间:2020-12-25 12:19:36    阅读次数:0
Tensorflow-GCN-Cora Dataset实战-老年痴呆自我回忆手册
Cora Dataset是对Machine Learning Paper进行分类的数据集 -- README: 对数据集的介绍; -- cora.cites: 论文之间的引用关系图。文件中每行包含两个Paper ID, 第一个ID是被引用的Paper ID; 第二个是引用的Paper ID。 -- ...
分类:其他好文   时间:2020-12-24 12:30:19    阅读次数:0
paper创新点毫无头绪?要不试试这个百搭的Attention?
“Attention,Attention,还是Attention,看了三篇顶会论文,现在CVPR、ICCV都这么好发了么,随随便便加个Attention就算了不得的创新点?”这是曾经有段时间实验室大家读paper后很统一的的槽点。你可能还在通过不断增加卷积层、池化层、全连接层以尽量让自己的网络结构“看起来”和别人的不太一样,也可能还在琢磨怎么从图像分割领域“借”点东西过来应用于图像识别领域。对于很
分类:其他好文   时间:2020-12-24 12:15:30    阅读次数:0
揭秘!量子计算的可怕之处在哪?摩尔定律到达极限会发生什么?
来源:Unsplash上个月,在《自然》杂志10月23日发表的一篇论文中,研究者称谷歌团队研发的量子计算机“西卡莫(Sycamore)”仅用200秒就能完成一次运算任务。而且这一运算任务非同寻常——这一任务即使由目前世界上最强大的传统超级计算机来运算,也需要耗费1万年以上的时间。此研究成果一发布,震惊全球。相关报道接踵而至,甭管人愿不愿意,一时间大家被强行科普各种知识,并都不约而同地响应号召,发出
分类:其他好文   时间:2020-12-23 11:49:41    阅读次数:0
放飞自我,用3个终端命令提高工作效率
图源:Pexels如果可以,谁不想提高效率,快速完成工作,放飞自我呢?然而,这岂是一件容易的事情。每当你这样烦恼的时候,小芯就出现啦!每周小芯都会带来各种提高工作效率的秘诀。这次,小芯给大家带来了几个可提高工作效率的快捷方式:·在终端中反向搜索;·为命令创建别名;·使用pbcopy;·其他小窍门。亲测有效,大家注意查收哟~图源:Pexels在终端中反向搜索反向搜索是Unix系统上最棒的功能之一。假
分类:其他好文   时间:2020-12-22 13:05:21    阅读次数:0
打怪升级,看俄罗斯小哥是如何从互联网转行到自动驾驶行业?
新年伊始是我们反思过去和计划未来的时候。基于此,我想借此机会回顾身为深度学习/计算机视觉工程师的行业经历。2017年1月,我在旧金山的一家名为TrueAccord的公司工作。当时,我正使用时间序列和表格数据构建传统的推荐系统。互联网充斥着博客文章和论文,主要描述超越人类的新型前沿的深度学习模型。我迅速将热情投入到这个令人无比兴奋的新领域。尽管具备一些关于深度学习的理论知识,但是我的实践经验非常有限
分类:其他好文   时间:2020-12-22 12:43:42    阅读次数:0
解读 | 从seq2seq到attention的方方面面
这篇文章的主要内容是对谷歌提出的transformer进行论文解读,主要是针对Google在2017年《Attentionisallyouneed》提出的transformer模型进行一个研究,另外我还看了这篇文章《NeuralMachineTranslationbyJointlyLearningtoAlignandTranslate》,这篇文章对seq2seq模型及其attention机制的应用
分类:其他好文   时间:2020-12-21 10:59:26    阅读次数:0
特征可视化技术(CAM) - 4 - Score-CAM - 论文学习
https://github.com/haofanwang/Score-CAM Score-CAM: Score-Weighted Visual Explanations for Convolutional Neural Networks Abstract 近年来,卷积神经网络的内部机制以及网络做出 ...
分类:其他好文   时间:2020-12-17 12:02:29    阅读次数:2
5578条   上一页 1 ... 7 8 9 10 11 ... 558 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!