前言: 主要总结一下自己最近看文章和代码的心得。
1. CNN用于分类:具体的过程大家都知道,无非是卷积,下采样,激活函数,全连接等。CNN用于分类要求它的输入图片的大小是固定的(其实不单单是CNN,很多其它的方法也是这样的),这是它的一个不足之处之一。目前的大部分CNN都是用来做分类比较多。
2. CNN用于检测:主要的方法有两种,细分一下有三种,
第一种最为简单和暴力的,...
分类:
其他好文 时间:
2014-12-04 18:00:19
阅读次数:
384
前言:最近学习深度学习,有感写一点总结。
我们常常所说的神经网络,一般是指原始的多层感知机,简称MLP,它是在原始感知机堆叠多层而成的,MLP完全由全连接层组成(当然也有激活函数),即Caffe里的IP层。MLP的最大的缺点在于参数众多,比如说我们的网络层为1000--1000--500--20,那么它的总的参数为:1000*1000+1000*500+500*20. 参数过多不好训练,...
分类:
其他好文 时间:
2014-12-04 06:27:32
阅读次数:
295
自今年七月份以来,一直在实验室负责卷积神经网络(Convolutional Neural Network,CNN),期间配置和使用过theano和cuda-convnet、cuda-convnet2。为了增进CNN的理解和使用,特写此博文,以其与人交流,互有增益。正文之前,先说几点自己对于CNN的感触。先明确一点就是,Deep Learning是全部深度学习算法的总称,CNN是深度学习算法在图像处理领域的一个应用。
第一点,在学习Deep learning和CNN之前,总以为它们是很了不得的知识,总以为它们...
分类:
其他好文 时间:
2014-11-29 17:37:54
阅读次数:
249
稀疏自编码器的学习结构:稀疏自编码器Ⅰ:神经网络反向传导算法梯度检验与高级优化稀疏自编码器Ⅱ:自编码算法与稀疏性可视化自编码器训练结果Exercise: Sparse Autoencoder自编码算法与稀疏性已经讨论了神经网络在有监督学习中的应用,其中训练样本是有类别标签的(x_i,y_i)。自编码...
分类:
其他好文 时间:
2014-11-28 21:22:29
阅读次数:
588
本文是论文Deep Learning Face Representation by Joint Identification-Verification的阅读笔记。
这篇论文使用deep learning学习特征,使用联合贝叶斯模型作为分类器,选取七组特征分别训练分类器,得到的结果使用SVM进行组合,得到的最终模型在LFW(Labeled Face in the Wild)数据集上的人脸验证任务中,达到了99.15%的准确率,目前排名第一。...
分类:
其他好文 时间:
2014-11-26 01:27:52
阅读次数:
282
在上一篇《DeepLearning 的挑战: Extreme Learning Machine(超限学习机)?》 中介绍了一些ELM与DL 的一些比较,这篇主要介绍ELM的原理。
首先,ELM的核心就是将复杂的迭代过程转变为隐层参数随机产生。
其次,ELM 是一个神经网络,有输入层、隐藏层,输出层。
最后,ELM 的多分类效果优于SVM。
对于训练样本集{xi,ti} i=1-N,...
分类:
其他好文 时间:
2014-11-25 12:48:37
阅读次数:
226
来自 http://www.valleytalk.org/wp-content/uploads/2014/11/深度学习的昨天、今天和明天.pdf
分类:
其他好文 时间:
2014-11-24 12:10:13
阅读次数:
200
官方Tutorial地址:http://ufldl.stanford.edu/tutorial/supervised/SoftmaxRegression/...
分类:
其他好文 时间:
2014-11-20 20:24:03
阅读次数:
289
1 Gradient Checking 说明前面我们已经实现了Linear Regression和Logistic Regression,关键在于代价函数Cost Function和其梯度Gradient的计算。在Gradient的计算中,我们一般采用推导出来的计算公式来进行计算。但是我们看到,推导出来的公式是复杂的,特别到后面的神经网络,更加复杂。这就产生了一个问题,我们如何判断我们编写的程序就...
分类:
其他好文 时间:
2014-11-20 13:46:16
阅读次数:
339
我搞了个微信号(data_bird),关注大数据,数据挖掘,机器学习,深度学习。
与大家共同与时俱进!...
分类:
微信 时间:
2014-11-20 01:34:37
阅读次数:
309