转自:https://zhuanlan.zhihu.com/p/63174774 1. 卷积 卷积神经网络中的卷积是指定义好卷积核(kernel),并对图像(或者特征图,feature map)进行滑动匹配,即对应位置相乘再相加。其特点就在于能够捕捉局部的空间特征。具体过程如下图所示: 图1-二维卷 ...
分类:
其他好文 时间:
2019-10-28 16:12:15
阅读次数:
122
cifar10主要是由32x32的三通道彩色图, 总共10个类别,这里我们使用残差网络构造网络结构 网络结构: 第一层:首先经过一个卷积,归一化,激活 32x32x16 -> 32x32x16 第二层: 通过一多个残差模型 残差模块的网络构造: 如果stride != 1 or in_channel ...
分类:
其他好文 时间:
2019-10-25 16:29:22
阅读次数:
124
slim的使用 从以下细节可以看出先使用 要回用,剩下的看看以下代码就懂了 ...
分类:
其他好文 时间:
2019-10-06 11:15:34
阅读次数:
58
`F.avg_pool1d()`数据是三维输入(Batch,seq_len,embedding_size) input维度: (batch_size,channels,width)channel可以看成高度 kenerl维度:(一维:表示width的跨度)channel和输入的channel一致可以 ...
分类:
其他好文 时间:
2019-10-03 20:04:22
阅读次数:
390
记录下一些常用设置: 1.下采样 当设置为: kernel_size = 4, stride = 2, padding = 1,就是将特征图宽高缩小一倍的意思,就比如是将256*256 -> 128*128 这样就是特征图宽高不变的意思 2.上采样 输入为1*1: 上面这样就是得到4*4的特征图,1 ...
分类:
其他好文 时间:
2019-09-16 19:47:36
阅读次数:
1494
CS231n note 5.1 CNN_history now: 略 5.2 CNN 上节课我们谈到了全连接层的概念: 对于全连接层而言,我们要做的就是在这些向量上进行操作。 例如: 但是至于卷积层,与前者截然不同的地方就是可以保持空间结构 例如下图: 一张32×32×3的图片,我们并非将它展成长向 ...
分类:
其他好文 时间:
2019-08-18 09:40:41
阅读次数:
87
卷积计算公式:N = (W ? F + 2P )/S+1,其中W指输入图片大小,F指卷积核大小,P指padding,S指stride 结果:由于只迭代了100次,结果只有78.57%。 ...
分类:
Web程序 时间:
2019-08-16 20:45:36
阅读次数:
186
图像分类算法优化技巧 https://blog.csdn.net/u014380165/article/details/85268719 图像分类算法优化技巧 https://blog.csdn.net/u014380165/article/details/85268719 图像分类算法优化技巧 图 ...
分类:
编程语言 时间:
2019-08-13 22:26:35
阅读次数:
86
PyTorch对ResNet网络的实现解析 1.首先导入需要使用的包 2.定义一个3 3的卷积层 下面会重复使用到这个3 3卷积层,虽然只使用了几次... 这里为什么用深度而不用通道,是因为我觉得深度相比通道更有数量上感觉,其实都一样。 3.定义最重要的残差模块 这个是基础块,由两个叠加的3 3卷积 ...
分类:
Web程序 时间:
2019-07-30 21:41:18
阅读次数:
170
Conv1d(in_channels,out_channels,kernel_size,stride=1,padding=0,dilation=1,groups=1,bias=True) filters:卷积核的数目(即输出的维度) kernel_size:整数或由单个整数构成的list/tuple ...
分类:
其他好文 时间:
2019-07-30 09:26:24
阅读次数:
1006