最先进的人脸识别是当前facebook和香港科技大学的深度神经网络的人脸识别:
论文下载地址:
facebook:DeepFace
https://research.facebook.com/publications/480567225376225/deepface-closing-the-gap-to-human-level-performance-in-face-verification/...
分类:
其他好文 时间:
2015-05-16 12:03:30
阅读次数:
160
caffe是deeplearning常见框架,是目前做CNN比较主流的方法,官网参考http://caffe.berkeleyvision.org/(1)caffe简介:caffe有以下几个特点:1 表达:caffe主要有modles+optimizations组成,models解释了深度网络的每一...
分类:
其他好文 时间:
2015-04-24 00:47:46
阅读次数:
655
摘要: 采用无监督的方法分层预训练深度网络的权值时,为了学习到较鲁棒的特征,可以在网络的可视层(即数据的输入层)引入随机噪声,这种方法称为Denoise Autoencoder(简称dAE),由Bengio在08年提出
分类:
Web程序 时间:
2014-11-30 06:13:42
阅读次数:
307
基于自动编码机(autoencoder),这里网络的层次结构为一个输入层,两个隐层,后面再跟着一个softmax分类器:采用贪婪算法,首先把input和feature1看作一个自动编码机,训练出二者之间的参数,然后用feature1层的激活值作为输出,输入到feature2,即把feature1和f...
分类:
其他好文 时间:
2014-10-23 12:15:03
阅读次数:
137
关于深度学习的一些个人浅见:
深度学习通常是训练深度(多层)神经网络,用于模式识别(如语音、图像识别);深度网络 指是具有深层(多层)网络结构的神经网络。
深层网络由于神经元多,参数多,拟合表现能力强,有表现欲解决复杂问题的能力。
但是深度网络存在很多局部最优解,深度网络的训练容易停留在局部最优上,初始参数的选择对网络最终收敛在那个位置有很大的影响。...
分类:
数据库 时间:
2014-09-03 11:18:46
阅读次数:
2523
自我学习就是稀疏编码器串联一个Softmax分类器,上一节看到,训练400次,准确率为98.2%
在此基础上,我们可以搭建我们的第一个深度网络:栈式自编码(2层)+Softmax分类器
简单地说,我们把稀疏自编码器的输出作为更高一层稀疏自编码器的输入。
和自我学习很像,似乎就是新加了一层,但是其实不然:
新技巧在于,我们这里有个微调的过程,让残差从最高层向输入层传递,微调整个网络权重...
分类:
其他好文 时间:
2014-08-16 12:37:40
阅读次数:
220
实现我们构造了RBM类. 网络的参数可以通过构造器或者是输入参数初始化.这样RBM可以用作构造一个深度网络, 在这种情况下, 权值矩阵和隐层偏置是和一个MLP网络的sigmoidal层共享的.写好构造函数, 对一些参数的默认值进行设置, 并完成一系列的初始化权值初始化成均匀分布偏置初始化成0定义与(...
分类:
其他好文 时间:
2014-07-23 16:49:11
阅读次数:
455
1、隐层维数要比输入大,输入几百维隐层几千维,500输入,2000隐层。(余凯)2、发现一层一层AE训练效果并不怎么好(除第一层外其他回复原始数据较差),尝试每一层都用到标签(看余凯视频1:13:30)来自为知笔记(Wiz)
分类:
其他好文 时间:
2014-05-07 20:20:01
阅读次数:
289