LeNet、AlexNet和VGG在设计上的共同之处是:先以由卷积层构成的模块充分抽取空间特征,再以由全连接层构成的模块来输出分类结果。 其中,AlexNet和VGG对LeNet的改进主要在于如何对这两个模块加宽(增加通道数)和加深。本节我们介绍?络中的?络(NiN)—— 它提出了另外?个思路,即串 ...
分类:
其他好文 时间:
2020-03-18 18:54:01
阅读次数:
70
TensorFlow 可视化中间卷积层图像方法 主要函数 tf.summary.image(name, tensor, max_outputs=3, collections=None, family=None) 参数解析 name:A name for the generated node. Wil... ...
分类:
其他好文 时间:
2020-03-17 21:01:57
阅读次数:
88
强化学习 值函数近似和策略梯度 [toc] 前两节内容都是强化学习的一些基础理论 ,只能解决一些中小规模的问题,实际情况下很多价值函数需要一张大表来存储,获取某一状态或动作价值的时候通常需要一个查表操作,这对于某些状态或动作空间很大的问题几乎无法求解,而许多实际问题拥有大量状态或动作,甚至是连续的状 ...
分类:
其他好文 时间:
2020-03-12 09:49:06
阅读次数:
93
上节课,我们讲了如何为卷积网络构建一个卷积层。今天我们看一个深度卷积神经网络的具体示例,顺便练习一下我们上节课所学的标记法。 假设你有一张图片,你想做图片分类或图片识别,把这张图片输入定义为x,然后辨别图片中有没有猫,用0或1表示,这是一个分类问题,我们来构建适用于这项任务的卷积神经网络。针对这个示 ...
分类:
其他好文 时间:
2020-02-27 20:50:12
阅读次数:
57
为什么要探索发展史(实例分析)? 我们首先来看看一些卷积神经网络的实例分析,为什么要看这些实例分析呢? 上周我们讲了基本构建,比如卷积层、池化层以及全连接层这些组件。 事实上,过去几年计算机视觉研究中的大量研究都集中在如何把这些基本构件组合起来,形成有效的卷积神经网络。 最直观的方式之一就是去看一些 ...
分类:
其他好文 时间:
2020-02-27 20:39:49
阅读次数:
64
为什么使用卷积?(Why convolutions?) 我们来分析一下卷积在神经网络中如此受用的原因,然后对如何整合这些卷积,如何通过一个标注过的训练集训练卷积神经网络做个简单概括。和只用全连接层相比,卷积层的两个主要优势在于参数共享和稀疏连接,举例说明一下。 假设有一张32×32×3维度的图片,这 ...
分类:
其他好文 时间:
2020-02-27 20:34:30
阅读次数:
68
论文地址channel pruning是指给定一个CNN模型,去掉卷积层的某几个输入channel以及相应的卷积核,并最小化裁剪channel后与原始输出的误差。可以分两步来解决: channel selection利用LASSO回归裁剪掉多余的channel,求出每个channel的权重,如果为0... ...
分类:
其他好文 时间:
2020-02-25 12:51:56
阅读次数:
86
1. 计算机视觉的任务 (1)图像分类(Image Classification) ,指的是图像中是否存在某种物体,对图像进行特征描述。通过是CNN网络,结构基本是由卷积层、池化层以及全连接层组成,算法包括AlexNet(2012)、ZFNet(2013)、GoogleNet(2014)、VGGNe ...
分类:
其他好文 时间:
2020-02-22 15:36:41
阅读次数:
90
批量归一化 "1.基本概念" "2.代码实现" 1.基本概念 对输入的标准化(浅层模型) 处理后的任意一个特征在数据集中所有样本上的均值为0、标准差为1。 标准化处理输入数据使各个特征的分布相近 批量归一化(深度模型) 利用小批量上的均值和标准差,不断调整神经网络中间输出,从而使整个神经网络在各层的 ...
分类:
其他好文 时间:
2020-02-20 13:32:04
阅读次数:
91
经典卷积神经网络 "1.LeNet" "2.AlexNet" "3.VGG" "4.NiN" "5.GoogleNet" 1.LeNet 卷积层块里的基本单位是卷积层后接平均池化层:卷积层用来识别图像里的空间模式,如线条和物体局部,之后的平均池化层则用来降低卷积层对位置的敏感性。卷积层块由两个这样的 ...
分类:
其他好文 时间:
2020-02-20 00:15:58
阅读次数:
118