【引言】 最近在用可变卷积的rfcn 模型迁移训练自己的数据集, MSRA官方使用的MXNet框架 环境搭建及配置:http://www.cnblogs.com/andre-ma/p/8867031.html 一 参数修改: 1.1 ~/Deformable-ConvNets/experiments ...
分类:
Web程序 时间:
2018-05-10 18:41:03
阅读次数:
763
Lecuture 12: Visualizing and Understanding What is going on inside Convnet First Layer The last Layer 如果将神经网络的前几层看成是特征提取器,那么这个网络的特征相应特性是什么?在众多的方法中,有个 ...
分类:
其他好文 时间:
2018-04-20 00:06:59
阅读次数:
197
https://github.com/SinaHonari/RCN convnet 存在的问题: 1. max pooling: for tasks requiring precise localization, such as pixel level prediction and segmenta ...
分类:
Web程序 时间:
2018-03-06 21:52:21
阅读次数:
250
转自:http://dataunion.org/11692.html,有修正 作者:张雨石 自今年七月份以来,一直在实验室负责卷积神经网络(Convolutional Neural Network,CNN),期间配置和使用过theano和cuda-convnet、cuda-convnet2。为了增进 ...
分类:
其他好文 时间:
2017-12-14 12:00:06
阅读次数:
110
https://www.leiphone.com/news/201609/UpmXTWh9gYOqnl0c.html 原文: 残差网络(ResNet) 和卷积神经网络( ConvNet) 之间是平行概念,互不排斥。 ResNet的基本思想可以和卷积神经网络结合,也可和其它任何类型的神经网络结合。Re ...
分类:
其他好文 时间:
2017-07-22 15:44:46
阅读次数:
158
Caffe是一个深刻的学习框架,以表达,速度和模块化为前??提。它由伯克利AI研究(BAIR)和社区贡献者开发。 杨庆庆在加州大学伯克利分校的博士期间创建了该项目。 为什么选择Caffe? 表达式架构鼓励应用和创新。模型和优化由没有硬编码的配置定义。通过设置单个标志在GPU机器上训练,然后部署到商品 ...
分类:
其他好文 时间:
2017-04-25 21:23:34
阅读次数:
172
在VLFeat官网上是这么介绍VLFeat的:VLFeat开源库实现了很多著名的机器视觉算法,如HOG, SIFT, MSER, k-means, hierarchical k-means, agglomerative information bottleneck, SLIC superpixels ...
分类:
其他好文 时间:
2017-03-04 11:32:40
阅读次数:
851
我这20MB的网速都下不下来,我觉得你还是放弃这个模型训练吧,谈费劲,看看得了,我就直接机翻粘过来得了,懒得校对了。 Alex的CIFAR-10教程,Caffe风格 Alex Krizhevsky的cuda-convnet详细介绍了模型定义,参数和培训程序,以便在CIFAR-10上获得良好的性能。这 ...
分类:
其他好文 时间:
2017-03-03 11:50:06
阅读次数:
390
这篇短文写的很好,我把它copy到这里供大家学习
上一届「国际计算机视觉大会(ICCV:International Conference of Computer Vision )」成为了深度学习(Deep Learning)技术的主场,但在我们宣布卷积神经网络(ConvNet)的全面胜利之前,让我们先看看计算机视觉的「非学习(non-learning)」几何方面的进展如何。同步定位与地图构建...
分类:
其他好文 时间:
2016-07-15 21:46:41
阅读次数:
1898
终于进入我们的主题了ConvNets或者CNNs,它的结构和普通神经网络都一样,之前我们学习的各种技巧方法都适用,其主要不同之处在于:
ConvNet假定输入的是图片,我们根据图片的特性对网络进行设定以达到提高效率,减少计算参数量的目的。
1. 结构总览
首先我们分析下传统神经网络对于图片的处理,如果还是用CIFAR-10上的图片,共3072个特征,如果普通网络结构输入那么第一层的每一个...
分类:
其他好文 时间:
2016-05-30 06:34:46
阅读次数:
388