1. Semantic Segmentation 把每个像素分类到某个语义。 为了减少运算量,会先降采样再升采样。降采样一般用池化层,升采样有各种“Unpooling”、“Transpose Convolution”(文献中也叫“Upconvolution”之类的其他名字)。 这个问题的训练数据的获 ...
分类:
编程语言 时间:
2017-12-07 23:59:41
阅读次数:
870
<! @import "[TOC]" {cmd="toc" depthFrom=1 depthTo=6 orderedList=false} <! code_chunk_output "参考资料" "0 Figures First" "1 LeNet5" "贡献" "2 Dan Ciresan Ne ...
分类:
其他好文 时间:
2017-11-24 00:08:17
阅读次数:
197
首先输入图像是28*28处理好的图。 第一层卷积:用5*5的卷积核进行卷积,输入为1通道,输出为32通道。即第一层的输入为:28*28图,第一层有32个不同的滤波器,对同一张图进行卷积,然后输出为32张特征图。需要32张特征图原因是能表示更多的特征。 第二层卷积:卷积核同样为5*5,但是输入为32通 ...
分类:
其他好文 时间:
2017-11-20 21:55:02
阅读次数:
195
深度学习是 多层神经网络上运用各种机器学习算法 解决图像,文本等各种问题的算法集合 深度学习算法: convolutional Neural Networks(CNN)卷积神经网络 卷积网络:由卷积层、池化层、全连接层组成。 其中卷积层与池化层配合,组成多个卷积组,逐层提取特征,最终通过若干个全连接 ...
分类:
其他好文 时间:
2017-11-13 00:15:32
阅读次数:
194
当前深度卷积神经网络(CNNs)都需要输入的图像尺寸固定(比如224×224)。这种人为的需要导致面对任意尺寸和比例的图像或子图像时降低识别的精度。本文中,我们给网络配上一个叫做“空间金字塔池化”(spatial pyramid pooling,)的池化策略以消除上述限制。这个我们称之为SPP-ne... ...
分类:
Web程序 时间:
2017-11-07 19:32:37
阅读次数:
279
Fast RCNN: 出现原因: RCNN在对每个选择区域都要进行前向传播,耗时比较多 改进: 提出POIPool(兴趣区域池化) 所有区域进行一次前向传播 ...
分类:
其他好文 时间:
2017-11-04 23:26:52
阅读次数:
165
上周看到韩松毕业论文,扯出神经网络加速器EIE,刚好这周调研了一下neuFlow,扯出09年的一篇做卷积加速的文章,大牛Lecun Yan的学生做的,一晃眼,快十年了。也记录之。 这一套还没研究透,又被换了方向,只好抽出一个晚饭时间,把看懂的记下来,不懂的暂时不研究了,如果以后再被拎回来搞这个方向再 ...
分类:
其他好文 时间:
2017-11-01 18:53:35
阅读次数:
270
通用对象池的实现 对象池的构造和管理可以按照多种方式实现。最灵活的方式是将池化对象的Class类型在对象池之外指定,即在ObjectPoolFactory类创建对象池时,动态指定该对象池所池化对象的Class类型,其实现代码如下: 其中,paraObj参数用于指定对象池的特征属性,clsType参数 ...
分类:
编程语言 时间:
2017-10-28 20:26:17
阅读次数:
180
卷积神经网络(CNN)由输入层、卷积层、激活函数、池化层、全连接层组成,即INPUT-CONV-RELU-POOL-FC (1)卷积层:用它来进行特征提取,如下: 输入图像是32*32*3,3是它的深度(即R、G、B),卷积层是一个5*5*3的filter(感受野),这里注意:感受野的深度必须和输入 ...
分类:
其他好文 时间:
2017-10-25 21:23:21
阅读次数:
219
一、概述 两种神经网络: 全连接神经网络 卷积神经网络(局部连接,相对于全连接而言) 全连接神经网络 卷积神经网络(局部连接,相对于全连接而言) 全连接神经网络 weight太多了,导致计算量太大 pooling(池化): 特征聚集、降维(降低维度)、光滑 目的: 降低输出规模 增加可解释性 避免丢 ...
分类:
其他好文 时间:
2017-10-25 19:57:41
阅读次数:
232