https://github.com/joelthchao/tensorflow-finetune-flickr-style https://github.com/kratzert/finetune_alexnet_with_tensorflow https://github.com/Shirhe- ...
分类:
Web程序 时间:
2019-01-07 01:43:10
阅读次数:
268
"github博客传送门" "csdn博客传送门" 参考: "https://my.oschina.net/u/876354/blog/1797489" LeNet 1. C1层(卷积层):6@28×28 (1)特征图大小 (32 5+1)×(32 5+1)= 28×28 (2)参数个数 5×5+1 ...
分类:
Web程序 时间:
2019-01-06 14:23:09
阅读次数:
245
转自:https://blog.csdn.net/u012679707/article/details/80793916 【深度学习】AlexNet原理解析及实现 Alex提出的alexnet网络结构模型,在imagenet2012图像分类challen ...
分类:
Web程序 时间:
2019-01-02 12:45:20
阅读次数:
182
隐去背景, 作者最近第一次用Tensorflow实现训练了几个模型, 其中遇到了一些错误, 把它记录下来 <! more 前言 以下提到的所有代码, 都可以在github上面找到. 仓库地址 这个仓库里提到的几段代码, 分别实现在从最简单的lr, 到全连接神经网络, 再到卷积神经网络. 从最简单的自 ...
分类:
其他好文 时间:
2019-01-01 19:57:20
阅读次数:
196
南洋理工大学的综述论文《Recent Advances in Convolutional Neural Networks》对卷积神经网络的各个组件以及进展情况进行总结和解读,其中涉及到 CNN 中各种重要层的数学原理以及各种激活函数和损失函数。机器之心技术分析师对该论文进行了解读。 论文地址:htt ...
分类:
其他好文 时间:
2019-01-01 13:23:38
阅读次数:
259
参考了: https://www.cnblogs.com/52machinelearning/p/5821591.html https://blog.csdn.net/qq_24695385/article/details/80368618 LeNet AlexNet 参考:https://baik ...
分类:
Web程序 时间:
2018-12-01 22:01:16
阅读次数:
649
from mxnet import gluon,init,nd,autograd from mxnet.gluon import data as gdata,nn from mxnet.gluon import loss as gloss import mxnet as mx import time... ...
分类:
Web程序 时间:
2018-11-30 20:17:31
阅读次数:
231
VGG论文给出了一个非常振奋人心的结论:卷积神经网络的深度增加和小卷积核的使用对网络的最终分类识别效果有很大的作用。记得在AlexNet论文中,也做了最后指出了网络深度的对最终的分类结果有很大的作用。这篇论文则更加直接的论证了这一结论。 网络结构 论文指出: VGG不仅在ILSVRC的分类和检测任务 ...
分类:
其他好文 时间:
2018-10-27 11:55:57
阅读次数:
1625
alexNet共有八层网络卷积层1:输入224*224*3 卷积核11*11*3*96 步长为4 然后是ReLU、局部归一化、3*3步长为2的最大值池化卷积层2:输入为28*28*96 卷积核5*5*96*256 然后是ReLU、局部归一化、3*3步长为2的最大值池化卷积层3:输入14*14*256 ...
分类:
其他好文 时间:
2018-10-27 11:49:00
阅读次数:
168
1.基础神经网络: 输入向量x,权重向量w, 偏置标量b, 激活函数sigmoid(增加非线性度) 优化手段: 梯度下降优化, BP向后传播(链式规则) 梯度下降优化: 1. 使用得目标函数是交叉熵 c = 1/nΣΣ[yj*lnaj^2 + (1-yj)*ln(1-aj^2)] yj表示得是样本标 ...
分类:
编程语言 时间:
2018-10-15 20:49:02
阅读次数:
196