最近使用Theano写了MLP和CNN的程序,由于训练样本大,单靠CPU运算速度so slow;于是乎找到了一台有NAIVID显卡的电脑进行了GPU的配置使用,期间遇到很多问题,记录如下:
平台说明:
系统:WindowsXP
Python:2.7, 建议直接使用 Python(x,y),包含了Theano需要的Numpy等库,省去自己配置
Theano: 0.6
CUDA:3....
分类:
其他好文 时间:
2014-12-06 15:25:07
阅读次数:
228
前言:最近学习深度学习,有感写一点总结。
我们常常所说的神经网络,一般是指原始的多层感知机,简称MLP,它是在原始感知机堆叠多层而成的,MLP完全由全连接层组成(当然也有激活函数),即Caffe里的IP层。MLP的最大的缺点在于参数众多,比如说我们的网络层为1000--1000--500--20,那么它的总的参数为:1000*1000+1000*500+500*20. 参数过多不好训练,...
分类:
其他好文 时间:
2014-12-04 06:27:32
阅读次数:
295
人工神经网络 深度学习 MLP RBF RBM DBN DBM CNN 整理学习...
分类:
数据库 时间:
2014-11-07 01:03:38
阅读次数:
895
本文笔记旨在概括地讲deep learning的经典应用。内容太大,分三块。
1. 回顾 deep learning在图像上的经典应用
1.1 Autoencoder
1.2 MLP
1.3 CNN
2. deep learning处理语音等时序信号
2.1 对什么时序信号解决什么问题
2.2 准备知识
2.2.1 Hidden Markov Model(HMM)
2.2.2 GMM-HMM for Speec...
分类:
其他好文 时间:
2014-10-10 11:21:04
阅读次数:
368
实现我们构造了RBM类. 网络的参数可以通过构造器或者是输入参数初始化.这样RBM可以用作构造一个深度网络, 在这种情况下, 权值矩阵和隐层偏置是和一个MLP网络的sigmoidal层共享的.写好构造函数, 对一些参数的默认值进行设置, 并完成一系列的初始化权值初始化成均匀分布偏置初始化成0定义与(...
分类:
其他好文 时间:
2014-07-23 16:49:11
阅读次数:
455