码迷,mamicode.com
首页 >  
搜索关键字:deep learning模型    ( 2007个结果
Deep learning:一(基础知识_1)
本文纯转载; 主要是想系统的跟tornadomeet的顺序走一遍deeplearning;前言: 最近打算稍微系统的学习下deep learing的一些理论知识,打算采用Andrew Ng的网页教程UFLDL Tutorial,据说这个教程写得浅显易懂,也不太长。不过在这这之前还是复习下machi....
分类:其他好文   时间:2014-08-23 16:38:01    阅读次数:256
Lucky
Jason MarzDo you hear me ,I'm talking to you,Across the water across the deep blue ocean,under the open sky,ou my baby I'm trying.Boy I hear you in my...
分类:其他好文   时间:2014-08-23 12:30:50    阅读次数:211
Xcode编译错误:code object is not signed at all
当你在编译某个项目的时候需要用到代码签名(Code Signing)的时候,出现了以下错误。如下图所示: 这个时候解决的办法就是:设置一个签名标志位的值为:--deep。如下图所示: 这样就可以成功编译了。...
分类:其他好文   时间:2014-08-22 16:27:29    阅读次数:232
《周鸿祎自述:我的互联网方法论》之精华笔记和思考
1. 用户不会在乎你的七大功能,八大特色,只要有一个功能可以打动他,可以解决它心中的痛,或者挠去他心中的痒,那你就有可能获得用户的信赖。      2. 不要给用户谈你们公司有多少个院士,多少个千人计划,多少个专家,多少个博士,你们的产品用到了多fancy的技术,大部分人不会care的. 最显然的就是这种科技新闻下的评论数量几乎为0.      3. 你做了一个新产品,然后你给用户说我用到了最高精尖的Deep Learning技术,通过利用人工神经网络模拟人脑神经的层次化结构实现更加高效精准识别,他...
分类:其他好文   时间:2014-08-21 22:53:35    阅读次数:206
Learning and Transferring Mid-Level Image Representations using Convolutional Neural Networks
学习笔记之《Learning and Transferring Mid-Level Image Representations using Convolutional Neural Networks》...
分类:Web程序   时间:2014-08-21 17:14:34    阅读次数:440
对暑期行程的一个简单总结
真的是应了那么一句话:“行百里者半九十”,原先还曾豪情壮志的想把blog搞得有声有色,得一个“恒”字勋章。现在看来,暑期将尽,更新无多,愧对了自己的那份心情。 好在亡羊补牢,把最近的一些行程做一个简单的总结,荒疏的事情,重新捡起。 6月22-7月14这段时间,基本上是连——沈两地通勤了,没办法了,接了“机器学习导论”这门小学期的课程,也算是一个小的尝试,头一次讲解,马虎不得。课件、作业、程序,...
分类:其他好文   时间:2014-08-20 22:43:53    阅读次数:244
Rich feature hierarchies for accurate object detection and semantic segmentation
学习笔记之《Rich feature hierarchies for accurate object detection and semantic segmentation》...
分类:其他好文   时间:2014-08-20 16:30:52    阅读次数:326
卷积特征提取与池化(Pooling)——处理大型图像
在之前的章节中,我们已经很好地解决了手写体识别问题(维数为28*28)。但如果是更大的图像(维数为96*96)呢?如果你还是要学习400个特征,那么网络权重参数就有400*96*96即近400万个。     卷积特征提取 如果我们从大型彩色图像(64*64*3)中随机抽取一些小patch(8*8),学到了一些特征,然后用这些特作为滤波器去扫过整张大图,即逐行逐列做卷积。这样做可以大幅减小网...
分类:其他好文   时间:2014-08-18 18:41:59    阅读次数:820
线性解码器——解决数据缩放问题
稀疏自编码器效果不错,但是有个固有缺陷:必须对输入数据的范围缩放到(0,1)。   设想一个图像如果不经预处理,直接把大于1的值输入稀疏自编码器,那么被sigmoid一下,就成了(0,1)的范围了,再被sigmoid一下,还是在(0,1)范围。这样残差根本没办法算,因为经过了sigmoid变换之后的数据已经不可能与输入数据相等了。   但是如果我们把第三层,原先的sigmoid函数换成恒等...
分类:其他好文   时间:2014-08-16 15:12:00    阅读次数:302
从自我学习到深层网络——建立你的第1个深度网络分类器
自我学习就是稀疏编码器串联一个Softmax分类器,上一节看到,训练400次,准确率为98.2% 在此基础上,我们可以搭建我们的第一个深度网络:栈式自编码(2层)+Softmax分类器   简单地说,我们把稀疏自编码器的输出作为更高一层稀疏自编码器的输入。 和自我学习很像,似乎就是新加了一层,但是其实不然: 新技巧在于,我们这里有个微调的过程,让残差从最高层向输入层传递,微调整个网络权重...
分类:其他好文   时间:2014-08-16 12:37:40    阅读次数:220
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!