数据库介绍
开发工具
网络框架
训练结果
训练要点
激活函数
Dropout 的作用
训练代码 【原创】Liu_LongPo
转载请注明出处【CSDN】http://blog.csdn.net/llp1992数据库介绍Cifar-10是由Hinton的两个大弟子Alex Krizhevsky、Ilya Sutskever收集的一个用于普适物体识别的数据集。
Cifar-10由60000张32*...
分类:
数据库 时间:
2015-08-28 21:33:29
阅读次数:
985
Neural Networks for Machine Learning by Geoffrey Hinton
训练感知机的方法并不能用以训练隐含层
训练感知机的方式是每次直接修正权重,最终得到满足所有凸锥里的权重。可行解的平均一定还是可行解。
对多层神经网络而言,2个可行解的平均并不一定是可行解。
They should never have been called mul...
分类:
Web程序 时间:
2015-08-19 14:55:35
阅读次数:
122
机器学习能良好解决的问题
识别模式识别异常预测
大脑工作模式
人类有个神经元,每个包含个权重,带宽要远好于工作站。
神经元的不同类型
Linear (线性)神经元
Binary threshold (二值)神经元
ReLu(Rectified Linear Units) 神经元
...
分类:
Web程序 时间:
2015-08-17 17:31:45
阅读次数:
428
12、深度学习的昨天、今天和明天(中文,期刊,2013年,知网)
记录了Hinton提出的两个重要观点:一是多隐层神经网络具有优异的特征学习能力,而是深度网络在训练上的难度可通过“逐层初始化”有效克服。详细描述了及机器学习的两次浪潮:浅层学习和深度学习,并指出深度学习研发面临的重大问题,属于一篇技术总结性文章。
13、基于卷积神经网络的植物叶片分类(中文,期刊,20...
分类:
其他好文 时间:
2015-08-14 22:48:05
阅读次数:
190
深度学习之对抗样本问题2006 年,Geoffrey Hinton 提出了深度学习。受益于大数据的出现和大规模计算能力的提升,深度学习已然成为最活跃的计算机研究领域之一。深度学习的多层非线性结构使其具备强大的特征表达能力和对复杂任务的建模能力。最近几年,深度学习的发展也带动了一系列的研究。尤其是在图...
分类:
其他好文 时间:
2015-07-29 21:07:59
阅读次数:
136
注明:本人英语水平有限,翻译不当之处,请以英文原版为准,不喜勿喷,另,本文翻译只限于学术交流,不涉及任何版权问题,若有不当侵权或其他任何除学术交流之外的问题,请留言本人,本人立刻删除,谢谢!!本文原作者:G.E.Hinton* and R.S.Salakhutdionv原文地址:http://www...
分类:
Web程序 时间:
2015-07-08 22:23:52
阅读次数:
232
对话机器学习大神Yoshua Bengio(下)Yoshua Bengio教授(个人主页)是机器学习大神之一,尤其是在深度学习这个领域。他连同Geoff Hinton老先生以及 Yann LeCun(燕乐存)教授,缔造了2006年开始的深度学习复兴。他的研究工作主要聚焦在高级机器学习方面,致力于用其...
分类:
其他好文 时间:
2015-07-08 20:41:25
阅读次数:
213
卷积网络训练太慢?Yann LeCun:已解决CIFAR-10,目标 ImageNetKaggle近期举办了一场关于CIFAR-10数据集的竞赛,该数据集包含有6万个32*32的彩色图像,共分为10种类型,由Alex Krizhevsky,Vinod Nair和Geoffrey Hinton收集而来...
分类:
Web程序 时间:
2015-07-06 17:25:59
阅读次数:
349
Deeplearning原文作者Hinton代码注解 1 Matlab示例代码为两部分,分别对应不同的论文: 2 3 1. Reducing the Dimensionality of data with neural networks 4 5 ministdeepauto.m ...
分类:
Web程序 时间:
2015-07-03 18:56:31
阅读次数:
207
Google研究员Ilya Sutskever:成功训练LDNN的13点建议摘要:本文由Ilya Sutskever(Google研究员、深度学习泰斗Geoffrey Hinton的学生、DNNresearch联合创始人)所写,讲述了有关深度学习的见解及实用建议,包括深度学习为什么强大,如何强大,以...
分类:
其他好文 时间:
2015-06-30 21:34:56
阅读次数:
109