卷积神经网络可谓是现在深度学习领域中大红大紫的网络框架,尤其在计算机视觉领域更是一枝独秀。CNN从90年代的LeNet开始,21世纪初沉寂了10年,直到12年AlexNet开始又再焕发第二春,从ZF Net到VGG,GoogLeNet再到ResNet和最近的DenseNet,网络越来越深,架构越来越 ...
分类:
其他好文 时间:
2018-09-29 00:42:29
阅读次数:
221
初学tensorflow,参考了以下几篇博客:soft模型 tensorflow构建全连接神经网络tensorflow构建卷积神经网络tensorflow构建卷积神经网络tensorflow构建CNN[待学习]全连接+各种优化[待学习]BN层[待学习]先解释以下MNIST数据集,训练数据集 ...
分类:
其他好文 时间:
2018-09-23 22:34:55
阅读次数:
299
废话不多说,上车吧,少年 paper链接:Rich feature hierarchies for accurate object detection and semantic segmentation &创新点 采用CNN网络提取图像特征,从经验驱动的人造特征范式HOG、SIFT到数据驱动的表示学... ...
分类:
其他好文 时间:
2018-05-15 22:33:48
阅读次数:
310
概述深度学习中CNN网络是核心,对CNN网络来说卷积层与池化层的计算至关重要,不同的步长、填充方式、卷积核大小、池化层策略等都会对最终输出模型与参数、计算复杂度产生重要影响,本文将从卷积层与池化层计算这些相关参数出发,演示一下不同步长、填充方式、卷积核大小计算结果差异。一:卷积层卷积神经网络(CNN)第一次提出是在1997年,杨乐春(LeNet)大神的一篇关于数字OCR识别的论文,在2012年的I
分类:
其他好文 时间:
2018-04-27 12:14:22
阅读次数:
190
在官方tutorial的帮助下,我们已经使用了最简单的CNN用于Mnist的问题,而其实在这个过程中,主要的问题在于如何设置CNN网络,这和Caffe等框架的原理是一样的,但是tf的设置似乎更加简洁、方便,这其实完全类似于Caffe的python接口,但是由于框架底层的实现不一样,tf无论是在单机还 ...
分类:
其他好文 时间:
2018-04-15 21:49:43
阅读次数:
209
搭建普通的卷积CNN网络。 nan表示的是无穷或者是非数值,比如说你在tensorflow中使用一个数除以0,那么得到的结果就是nan。 在一个matrix中,如果其中的值都为nan很有可能是因为采用的cost function不合理导致的。 当使用tensorflow构建一个最简单的神经网络的时候 ...
分类:
其他好文 时间:
2018-03-08 02:59:18
阅读次数:
437
cnn网络中,网络更新一次参数是根据loss反向传播来,这个loss是一个batch_size的图像前向传播得到的loss和除以batch_size大小得到的平均loss。 softmax_loss前向传播中有这样一段代码: loss/get_normalizer(normalization_,va ...
分类:
其他好文 时间:
2018-03-01 17:06:50
阅读次数:
153
卷积神经网络可谓是现在深度学习领域中大红大紫的网络框架,尤其在计算机视觉领域更是一枝独秀。CNN从90年代的LeNet开始,21世纪初沉寂了10年,直到12年AlexNet开始又再焕发第二春,从ZF Net到VGG,GoogLeNet再到ResNet和最近的DenseNet,网络越来越深,架构越来越 ...
分类:
Web程序 时间:
2018-02-17 13:43:21
阅读次数:
1326
使用二维数据构造简单卷积神经网络 觉得有用的话,欢迎一起讨论相互学习~ "Follow Me" 图像和一些时序数据集都可以用二维数据的形式表现,我们此次使用随机分布的二位数据构造一个简单的CNN—网络卷积 最大池化 全连接 参考代码 python Implementing Different Lay ...
分类:
其他好文 时间:
2018-02-07 12:12:10
阅读次数:
706
发表于2015年这篇《Fully Convolutional Networks for Semantic Segmentation》在图像语义分割领域举足轻重。 1 CNN 与 FCN 通常CNN网络在卷积层之后会接上若干个全连接层, 将卷积层产生的特征图(feature map)映射成一个固定长度 ...
分类:
Web程序 时间:
2018-01-10 20:14:50
阅读次数:
379