Going Deeper1. 背景2006年之前,整个机器学习的理论界,可以说已经是SVM(支持向量机)的天下。SVM以其良好的理论基础,优美的模型和令人舒服的算法性质,俘获了无数科研人员的心。据说,深度学习三巨头之一的Yann LeCun,曾经与SVM的祖师爷Vapnik就SVM与神经网络发生过激烈而有趣的讨论,最终两人各持己见,各自回家睡觉。于是后边的小弟逐步形成两个“门派”。在那段时间的争论中...
分类:
其他好文 时间:
2016-07-11 12:33:00
阅读次数:
1049
MatchNet: Unifying Feature and Metric Learning for Patch-Based Matching CVPR 2015 本来都写到一半了,突然笔记本死机了,泪崩!好吧,重新写!本文提出了一种联合的学习patch表示的一个深度网络 和 鲁棒的特征比较的网络结 ...
分类:
Web程序 时间:
2016-05-21 18:54:23
阅读次数:
1808
本文结合对抗网络以及深度网络生成图像来不同域之间样本生成的问题,根据源域上的样本生成目标域上对应的样本。...
分类:
其他好文 时间:
2016-05-13 02:24:35
阅读次数:
1065
重点分析了普通bp网络梯度弥散等不稳定现象,建立了分类用自编码深度网络。...
分类:
其他好文 时间:
2016-05-12 12:05:47
阅读次数:
357
学习UFDL栈式自编码算法的笔记
深度神经网络,即含有多个隐藏层的神经网络。通过引入深度网络,我们可以计算更多复杂的输入特征。因为每一个隐藏层可以对上一层的输出进行非线性变换,因此深度神经网络拥有比“浅层”网络更加优异的表达能力(例如可以学到更加复杂的函数关系)。其实三层网络,只要能无限增加隐层的单元数就能拟合任何函数。而使用深度网络的最主要优势是:它能以更加紧凑简洁的方式来表达比浅层网...
分类:
编程语言 时间:
2016-04-22 21:02:04
阅读次数:
408
在caffe教程中,介绍了caffe的三级结构:Blobs, Layers,Nets.如下图所示:
深度网络是一个复杂的模型,caffe定义了一个层与层之间连接的网络模型。这个网络定义了从输入层到损失的所有模型结构。...
分类:
其他好文 时间:
2016-04-22 20:50:39
阅读次数:
293
12、深度学习的昨天、今天和明天(中文,期刊,2013年,知网)
记录了Hinton提出的两个重要观点:一是多隐层神经网络具有优异的特征学习能力,而是深度网络在训练上的难度可通过“逐层初始化”有效克服。详细描述了及机器学习的两次浪潮:浅层学习和深度学习,并指出深度学习研发面临的重大问题,属于一篇技术总结性文章。
13、基于卷积神经网络的植物叶片分类(中文,期刊,20...
分类:
其他好文 时间:
2015-08-14 22:48:05
阅读次数:
190
extracting features from a learned model,
and add some new features yourself。...
分类:
其他好文 时间:
2015-08-11 21:30:43
阅读次数:
99
extracting features from a learned model, and add some new features yourself。...
分类:
其他好文 时间:
2015-08-04 21:12:25
阅读次数:
113
原作者:lynnandwei原文地址:http://blog.csdn.net/lynnandwei/article/details/44458033GoogLeNet, 2014年ILSVRC挑战赛冠军,将Top5 的错误率降低到6.67%. 一个22层的深度网络,论文在http://arxiv....
分类:
Web程序 时间:
2015-07-06 21:35:52
阅读次数:
677