码迷,mamicode.com
首页 >  
搜索关键字:论文笔记    ( 169个结果
论文笔记:Fast(er) RCNN
在 "RCNN" 初步试水取得成功后,研究人员又迅速跟进,针对 RCNN 中的几点不足提出改进,接连推出了 fast rcnn 和 faster rcnn。关于这两篇论文,网上相关的文章实在是多如牛毛,因此,本篇博文不打算深入讲解,只是不落俗套地介绍一下它们改进的痛点,基本流程,以及我自己对一些小问 ...
分类:其他好文   时间:2018-02-25 00:10:16    阅读次数:203
论文笔记--AlexNet--ImageNet Classification with Deep Convolutional Neural Networks
Datasets: LabelMe: consists of hundreds of thousands of fully-segmented images ImageNet: consists of over 15 million labeled high-resolution images in ...
分类:Web程序   时间:2018-02-24 21:52:25    阅读次数:648
【论文笔记】A Review on Deep Learning Techniques Applied to Semantic Segmentation
A Review on Deep Learning Techniques Applied to Semantic Segmentation 2018-02-22 10:38:12 1. Introduction: 语义分割是计算机视觉当中非常重要的一个课题,其广泛的应用于各种类型的数据,如:2D i ...
分类:移动开发   时间:2018-02-22 15:28:59    阅读次数:1375
【论文笔记】Matrix Capsule with EM Routing
Matrix Capsule with EM Routing 2018-02-02 21:21:09 【Abstract】 一个 capsule 是一组神经元,其输出代表了同一个实例的不同属性。capsule network 的每层包括多个 capsule。我们一种 capsule,每个 capsu ...
分类:其他好文   时间:2018-02-02 23:19:33    阅读次数:2587
【论文笔记】T Test
t检验分为单总体检验和双总体检验 单总体t检验是 检验一个样本平均数与一个已知的总体平均数的差异是否显著。当总体分布是正态分布,如总体标准差未知且样本容量小于30,那么样本平均数与总体平均数的离差统计量呈t分布。 单总体t检验统计量为: 其中 为样本平均数, 为样本标准偏差,n为样本数。该统计量t在 ...
分类:其他好文   时间:2018-01-31 11:34:08    阅读次数:229
【论文笔记】Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recognition
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recognition 2018-01-28 15:45:13 研究背景和动机: 行人动作识别(Human Action Recognition)主要从多个 ...
分类:Web程序   时间:2018-01-28 18:19:57    阅读次数:1364
【论文笔记】Learning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for Graphs 2018-01-17 21:41:57 【Introduction】 这篇 paper 是发表在 ICML 2016 的:http://jmlr.org/proceedings/papers/v48/ ...
分类:Web程序   时间:2018-01-17 23:24:01    阅读次数:2309
【论文笔记】Training Very Deep Networks - Highway Networks
目标: 怎么训练很深的神经网络 然而过深的神经网络会造成各种问题,梯度消失之类的,导致很难训练 作者利用了类似LSTM的方法,通过增加gate来控制transform前和transform后的数据的比例,称为Highway network 至于为什么会有效...大概和LSTM会有效的原因一样吧。 方 ...
分类:Web程序   时间:2018-01-12 11:20:31    阅读次数:204
论文笔记:Batch Normalization
在神经网络的训练过程中,总会遇到一个很蛋疼的问题:梯度消失/爆炸。关于这个问题的根源,我在上一篇文章的 "读书笔记" 里也稍微提了一下。原因之一在于我们的输入数据(网络中任意层的输入)分布在激活函数收敛的区域,拿 sigmoid 函数举例: 如果数据分布在 [ 4, 4] 这个区间两侧,sigmoi ...
分类:其他好文   时间:2018-01-07 15:58:16    阅读次数:247
论文笔记:Deep Residual Learning
之前提到,深度神经网络在训练中容易遇到梯度 消失/爆炸 的问题,这个问题产生的根源详见之前的 "读书笔记" )。在 Batch Normalization 中,我们将输入数据由激活函数的收敛区调整到梯度较大的区域,在一定程度上缓解了这种问题。不过,当网络的层数急剧增加时,BP 算法中导数的累乘效应还 ...
分类:其他好文   时间:2018-01-07 15:54:22    阅读次数:193
169条   上一页 1 2 3 4 ... 17 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!