码迷,mamicode.com
首页 >  
搜索关键字:deeplearning    ( 199个结果
Faster R-CNN论文详解
原文链接:http://lib.csdn.net/article/deeplearning/46182 paper链接:Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks &创新点 设计Regi ...
分类:其他好文   时间:2017-07-24 23:43:44    阅读次数:639
深度学习(一)
蛮不错的深度学习入门贴1 吴岸城神经网络与深度学习2 AndrewNGhttp://deeplearning.stanford.edu/wiki/index.php/Neural_Networks3 zouxyhttp://blog.csdn.net/zouxy09/article/details/ ...
分类:其他好文   时间:2017-07-08 16:13:27    阅读次数:297
DeepLearning to digit recognizer in kaggle
DeepLearning to digit recongnizer in kaggle 近期在看deeplearning,于是就找了kaggle上字符识别进行练习。这里我主要用两种工具箱进行求解。并比对两者的结果。两种工具箱各自是DeepLearningToolbox和caffe。Deeplearn ...
分类:其他好文   时间:2017-06-27 20:49:42    阅读次数:214
DeepLearning tutorial(2)机器学习算法在训练过程中保存参数
我是小白,说的不是很好,请原谅 @author:wepon @blog:http://blog.csdn.net/u012162613/article/details/43169019 参考:pickle — Python object serialization、DeepLearning Gett ...
分类:编程语言   时间:2017-06-14 22:15:01    阅读次数:172
semantic segmentation with deeplearning
ParseNet: Looking Wider to See Better [ICLR 2016] paper: https://arxiv.org/pdf/1506.04579.pdf codes: https://github.com/weiliu89/caffe/tree/fcn ...
分类:其他好文   时间:2017-06-11 20:17:48    阅读次数:128
face detection,landmark, recognition with deeplearning
Joint Face Detection and Alignment using Multi-task Cascaded Convolutional Neural Networks codes: https://github.com/kpzhang93/MTCNN_face_detection_al ...
分类:其他好文   时间:2017-06-11 17:22:30    阅读次数:160
UFLDL讲义二十:卷积特征提取
本讲义来源为NG教授的机器学习课程讲义,详见 http://deeplearning.stanford.edu/wiki/index.php ...
分类:其他好文   时间:2017-05-05 17:21:09    阅读次数:260
UFLDL讲义十五:从自我学习到深层网络
注:本讲义来源为NG教授的机器学习课程讲义,详见 http://deeplearning.stanford.edu/wiki/index.php ...
分类:其他好文   时间:2017-05-05 16:16:57    阅读次数:138
Theano中的Graph Structure
译自:http://deeplearning.net/software/theano/extending/graphstructures.html#graphstructures 理解Theano计算原理的关键 建议阅读时间:10分钟 如果不明白内在运行机制,Theano代码的调试工作并非易事。本章 ...
分类:其他好文   时间:2017-04-21 17:57:31    阅读次数:287
Neural Network and DeepLearning (5.1)深度神经网络为何很难训练
在深度网络中,不同层的学习速度差异很大。例如:在网络中后面的层学习情况很好的时候,前面的层常常会在训练时停滞不前,基本上不学习了。另一种情况恰恰相反,前面的层学习的很好,后面的层却停止学习了。 这是因为基于梯度下降的学习算法的本身存在着内在的不稳定性,这种不稳定性使得前面或者后面的层的学习停止。 消 ...
分类:Web程序   时间:2017-03-22 18:02:28    阅读次数:219
199条   上一页 1 ... 8 9 10 11 12 ... 20 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!