第5章-TensorFlow实现卷积神经网络CNN 5.1 卷积神经网络简介 卷积神经网络CNN最初是为了解决图像识别等问题设计的,当然现在的应用已经不限于图像和视频,也可以用于时间序列信号,比如音频信号、文本数据等。 在深度学习出现之前,必须借助SIFT、HoG等算法提取出有效而丰富的特征,再集合 ...
分类:
其他好文 时间:
2018-07-22 13:03:24
阅读次数:
194
1. 简述神经网络的基本特征和基本功能 答:基本特征:(A)非线性,人工神经网络处于激活状态或者抑制状态,变现出非线性的特征,可以提高容错性和存储容量(B)非局限性,一个神经网络可以由多个神经网络构成,一个系统不仅取决于单个神经网络特点,还取决于单元之间的相互作用。(C)非常定性,神经网络可以自适应 ...
分类:
其他好文 时间:
2018-07-18 21:45:18
阅读次数:
315
1、池化层的理解 pooling是用来减小尺寸,提高运算速度的,同时也可以减少噪声。它没有卷积计算,仅仅是在滤波器算子滑动区域内取最大值。 池化层可对提取到的特征信息进行降维,一方面使特征图变小,简化网络计算复杂度并在一定程度上避免过拟合的出现;一方面进行特征压缩,提取主要特征。 最大池采样在计算机 ...
分类:
其他好文 时间:
2018-07-09 12:34:48
阅读次数:
2062
TensorFlow 中的卷积网络 是时候看一下 TensorFlow 中的卷积神经网络的例子了。 网络的结构跟经典的 CNNs 结构一样,是卷积层,最大池化层和全链接层的混合。 这里你看到的代码与你在 TensorFlow 深度神经网络的代码类似,我们按 CNN 重新组织了结构。 如那一节一样,这 ...
分类:
其他好文 时间:
2018-07-04 20:13:42
阅读次数:
185
在 TensorFlow 中使用池化层 在下面的练习中,你需要设定池化层的大小,strides,以及相应的 padding。你可以参考 tf.nn.max_pool()。Padding 与卷积 padding 的原理一样。 说明 完成 maxpool 函数中所有的 TODO。 设定 strides, ...
分类:
其他好文 时间:
2018-07-04 20:10:59
阅读次数:
170
tf.nn.conv2d(value,filter,strides,[...]) 对于图片来说 value : 形状通常是np.array()类型的4维数组也称tensor(张量), (batch,height,width,channels) 可以理解为(图片样本的个数,高,宽,图片的颜色通道数) ...
分类:
其他好文 时间:
2018-07-02 19:23:02
阅读次数:
280
线程池优势 在业务场景中, 如果一个对象创建销毁开销比较大, 那么此时建议池化对象进行管理. 例如线程, jdbc连接等等, 在高并发场景中, 如果可以复用之前销毁的对象, 那么系统效率将大大提升. 另外一个好处是可以设定池化对象的上限, 例如预防创建线程数量过多导致系统崩溃的场景. jdk中的线程 ...
分类:
编程语言 时间:
2018-06-25 20:29:06
阅读次数:
167
Dilation 卷积,也被称为:空洞卷积、膨胀卷积。 一、一般的卷积操作: 首先,可以通过动态图,理解正常卷积的过程: 如上图,可以看到卷积操作。 对于CNN结构,通常包括如下部分: 输入层 (input layer) 卷积计算层 (CONV) 激励层(RELU) 池化层(Pooling) 全连接 ...
分类:
其他好文 时间:
2018-06-17 13:29:58
阅读次数:
3042
LeNet 模型特点 LeNet5诞生于1994年,由Yann LeCun提出,充分考虑图像的相关性。当时结构的特点如下: 1)每个卷积层包含三个部分:卷积(Conv)、池化(ave-pooling)、非线性激活函数(sigmoid) 2)MLP作为最终的分类器 3)层与层之间稀疏连接减少计算复杂度 ...
分类:
Web程序 时间:
2018-06-17 11:08:43
阅读次数:
576
计划最近好好按步骤按阶段系统性的学习下机器学习和深度学习,希望能坚持下去。 基础数学篇 [高等数学:求导、梯度] [高等数学:泰勒展开] [概率论:基本概念、条件概率、全概率、朴素贝叶斯] [概率论:期望、方差、协方差] [概率论:常见分布] [线性代数:矩阵] 机器学习中的基本概念 [机器学习的分 ...
分类:
其他好文 时间:
2018-06-07 22:54:49
阅读次数:
234