hinton的论文只下载过一篇,而且没有深入看。但是这两年没少听和看各种机器学习的报告和教程。我觉得最好的两套教程就是andrew和复旦的吴老师这两个了。机器学习本身就是从人工智能脱出的子学科。机器学习要学的内容挺多的。第一次接触直到现在很多概念都是印象,比如加窗,紧支,rbf, cnn, fnn,...
分类:
其他好文 时间:
2015-03-18 17:17:51
阅读次数:
137
转自:http://weibo.com/p/1001603816330729006673翻译网上的哈,我觉得有很大一部分从没看到过,所以就翻译了下,如有不对的地方,欢迎指正:1:准备数据:务必保证有大量、高质量并且带有干净标签的数据,没有如此的数据,学习是不可能的2:预处理:这个不多说,就是0均值和...
分类:
其他好文 时间:
2015-03-18 10:31:03
阅读次数:
155
Torch7 教程 Supervised Learning CNN 分类: 机器学习 2014-08-08 15:59 1426人阅读 评论(0) 收藏 举报 cnnbpdee...
分类:
其他好文 时间:
2015-03-12 22:18:28
阅读次数:
218
原作者:zouxy09原文链接:http://blog.csdn.net/zouxy09/article/details/9993371Deep Learning论文笔记之(四)CNN卷积神经网络推导和实现zouxy09@qq.comhttp://blog.csdn.net/zouxy09自己平时看...
分类:
其他好文 时间:
2015-03-10 21:19:19
阅读次数:
239
SSP或者说是空间金字塔匹配(spatial pyramid matching or SPM)是BoW的一个扩展,它把一张图片划分为从不同的分辨率级别然后聚合这些不同分辨率的图像,在深度学习之前SPM取得了很大的成功,然是在深度学习CNN出现之后却很少被用到,SSP有一些很好的特征:1.它可以不论输...
分类:
Web程序 时间:
2015-03-08 18:44:29
阅读次数:
207
http://nikhilbuduma.com/2015/01/11/a-deep-dive-into-recurrent-neural-networks/按照这里的介绍,目前比较火的cnn是feed-forward的网络,而rnn是back projections。lstm则是rnn的一种特例。r...
分类:
其他好文 时间:
2015-03-03 09:51:32
阅读次数:
167
卷积操作的GPU粗粒度并行实现及测试
一、 算法基本思想:
1、 GPU中的一个线程产生一个卷积结果,有多少个结果就使用多少个Block;
2、 矩阵和卷积核存放在共享内存中,卷积结果存放在全局内存中;
3、 支持10000以内任意维度的二维矩阵,卷积核最大支持16x16。
4、 支持任意多幅图像的批处...
分类:
其他好文 时间:
2015-03-02 11:12:53
阅读次数:
208
卷积操作的GPU粗粒度并行实现及测试
一、 算法基本思想:
1、 GPU中的一个线程产生一个卷积结果,有多少个结果就使用多少个Block;
2、 矩阵和卷积核存放在共享内存中,卷积结果存放在全局内存中;
3、 支持10000以内任意维度的二维矩阵,卷积核最大支持16x16。
4、 支持任意多幅图像的批处理。...
分类:
其他好文 时间:
2015-03-02 11:11:59
阅读次数:
235
CNN基础及环境搭建
Author:王帅;Mail:mippr11.ws@gmail.com
目前,深度学习在解决图像分类,语音识别等问题上获得了已知的最优结果,该系列算法越来越受到学术界和工业界的重视。何为深度学习?一个直观的解释是如果一个机器学习算法在建模的过程中使用了多层的自动特征表示,则该机器学习算法可以称之为深度学习算法,也就是该机器学习算法可以自动地计算特征的特征表示。而卷积神经网...
分类:
其他好文 时间:
2015-02-28 14:40:33
阅读次数:
473
节选自语义分析的一些方法(二),以后会不断补充。——by wepon
结合文献『Deep Learning for Computer Vision』, 以下讲讲卷积神经网络的一些注意点和问题。
激励函数,要选择非线性函数,譬如tang,sigmoid,rectified liner。在CNN里,relu用得比较多,原因在于:(1)简化BP计算;(2)使学习更快。(3)避免饱和问题(sa...
分类:
其他好文 时间:
2015-02-27 20:17:55
阅读次数:
372