码迷,mamicode.com
首页 >  
搜索关键字:深度学习    ( 3633个结果
深度学习(主要是CNN)用于图片的分类和检测总结
前言: 主要总结一下自己最近看文章和代码的心得。 1. CNN用于分类:具体的过程大家都知道,无非是卷积,下采样,激活函数,全连接等。CNN用于分类要求它的输入图片的大小是固定的(其实不单单是CNN,很多其它的方法也是这样的),这是它的一个不足之处之一。目前的大部分CNN都是用来做分类比较多。 2. CNN用于检测:主要的方法有两种,细分一下有三种, 第一种最为简单和暴力的,...
分类:其他好文   时间:2014-12-04 18:00:19    阅读次数:384
多层感知机,非权值共享型卷积神经网络,权值共享型卷积神经网络之间的关系
前言:最近学习深度学习,有感写一点总结。 我们常常所说的神经网络,一般是指原始的多层感知机,简称MLP,它是在原始感知机堆叠多层而成的,MLP完全由全连接层组成(当然也有激活函数),即Caffe里的IP层。MLP的最大的缺点在于参数众多,比如说我们的网络层为1000--1000--500--20,那么它的总的参数为:1000*1000+1000*500+500*20. 参数过多不好训练,...
分类:其他好文   时间:2014-12-04 06:27:32    阅读次数:295
卷积神经网络
自今年七月份以来,一直在实验室负责卷积神经网络(Convolutional Neural Network,CNN),期间配置和使用过theano和cuda-convnet、cuda-convnet2。为了增进CNN的理解和使用,特写此博文,以其与人交流,互有增益。正文之前,先说几点自己对于CNN的感触。先明确一点就是,Deep Learning是全部深度学习算法的总称,CNN是深度学习算法在图像处理领域的一个应用。 第一点,在学习Deep learning和CNN之前,总以为它们是很了不得的知识,总以为它们...
分类:其他好文   时间:2014-11-29 17:37:54    阅读次数:249
深度学习UFLDL老教程笔记1 稀疏自编码器Ⅱ
稀疏自编码器的学习结构:稀疏自编码器Ⅰ:神经网络反向传导算法梯度检验与高级优化稀疏自编码器Ⅱ:自编码算法与稀疏性可视化自编码器训练结果Exercise: Sparse Autoencoder自编码算法与稀疏性已经讨论了神经网络在有监督学习中的应用,其中训练样本是有类别标签的(x_i,y_i)。自编码...
分类:其他好文   时间:2014-11-28 21:22:29    阅读次数:588
Deep Learning Face Representation by Joint Identification-Verification
本文是论文Deep Learning Face Representation by Joint Identification-Verification的阅读笔记。 这篇论文使用deep learning学习特征,使用联合贝叶斯模型作为分类器,选取七组特征分别训练分类器,得到的结果使用SVM进行组合,得到的最终模型在LFW(Labeled Face in the Wild)数据集上的人脸验证任务中,达到了99.15%的准确率,目前排名第一。...
分类:其他好文   时间:2014-11-26 01:27:52    阅读次数:282
ELM 极限学习机与SVM支持向量机
在上一篇《DeepLearning 的挑战: Extreme Learning Machine(超限学习机)?》 中介绍了一些ELM与DL 的一些比较,这篇主要介绍ELM的原理。 首先,ELM的核心就是将复杂的迭代过程转变为隐层参数随机产生。 其次,ELM 是一个神经网络,有输入层、隐藏层,输出层。 最后,ELM 的多分类效果优于SVM。   对于训练样本集{xi,ti}  i=1-N,...
分类:其他好文   时间:2014-11-25 12:48:37    阅读次数:226
深度学习的昨天、今天和明天
来自 http://www.valleytalk.org/wp-content/uploads/2014/11/深度学习的昨天、今天和明天.pdf
分类:其他好文   时间:2014-11-24 12:10:13    阅读次数:200
深度学习 Deep Learning UFLDL 最新Tutorial 学习笔记 5:Softmax Regression
官方Tutorial地址:http://ufldl.stanford.edu/tutorial/supervised/SoftmaxRegression/...
分类:其他好文   时间:2014-11-20 20:24:03    阅读次数:289
深度学习 Deep Learning UFLDL 最新Tutorial 学习笔记 4:Debugging: Gradient Checking
1 Gradient Checking 说明前面我们已经实现了Linear Regression和Logistic Regression,关键在于代价函数Cost Function和其梯度Gradient的计算。在Gradient的计算中,我们一般采用推导出来的计算公式来进行计算。但是我们看到,推导出来的公式是复杂的,特别到后面的神经网络,更加复杂。这就产生了一个问题,我们如何判断我们编写的程序就...
分类:其他好文   时间:2014-11-20 13:46:16    阅读次数:339
搞了个微信号,关注数据挖掘,机器学习
我搞了个微信号(data_bird),关注大数据,数据挖掘,机器学习,深度学习。 与大家共同与时俱进!...
分类:微信   时间:2014-11-20 01:34:37    阅读次数:309
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!