码迷,mamicode.com
首页 >  
搜索关键字:maching learning    ( 4462个结果
Machine Learning - II. Linear Regression with One Variable (Week 1)
机器学习Machine Learning - Andrew NG courses学习笔记...
分类:系统相关   时间:2015-01-25 21:07:24    阅读次数:185
MachineLearning - Introduction (Week 1)
机器学习的来源和用例: Machine Learning - Grew out of work in AI - New capability for computers Examples: - Database mining Large datasets from growth of automation/web. E.g., Web click data, medical re...
分类:系统相关   时间:2015-01-24 21:27:36    阅读次数:331
加州理工学院公开课:机器学习与数据挖掘_Three Learning Principles(第十七课)
这一节课主要讲述机器学习中应该注意的事项,包括:Occam's Razor、Sampling Bias、Data Snooping....
分类:其他好文   时间:2015-01-24 17:23:34    阅读次数:328
Deep Learning(深度学习)学习笔记整理系列之(五)
Deep Learning(深度学习)学习笔记整理系列zouxy09@qq.comhttp://blog.csdn.net/zouxy09作者:Zouxyversion 1.0 2013-04-08声明:1)该Deep Learning的学习系列是整理自网上非常大牛和机器学习专家所无私奉献的资料的。...
分类:其他好文   时间:2015-01-24 17:18:05    阅读次数:291
Stanford机器学习课程笔记——单变量线性回归和梯度下降法
Stanford机器学习课程笔记——单变量线性回归和梯度下降法      1. 问题引入     单变量线性回归就是我们通常说的线性模型,而且其中只有一个自变量x,一个因变量y的那种最简单直接的模型。模型的数学表达式为y=ax+b那种,形式上比较简单。Stanford的机器学习课程引入这个问题也想让我们亲近一下machine learning这个领域吧~吴恩达大神通过一个房屋交易的问...
分类:其他好文   时间:2015-01-23 13:31:42    阅读次数:174
python Theano包--deep learning library--安装
Preface:工欲善其事,必先利其器。找deep learning资料时,发现有个python包:theano。便开始着手学习,当然,最好的资料还是官网文档了,没怎么找到比较好的中文文档,那就记录下来。theano官网教程。 deep learning tutorial:http://deeplearning.net/tutorial/。 Theano install:http://deep...
分类:编程语言   时间:2015-01-23 11:11:43    阅读次数:268
It's import to know before start learning DW/BI
Data Warehousing and Business IntelligenceDifferences Between Data Warehousing and BusinessIntelligenceFiled under:Business Intelligence,Data Warehous...
分类:其他好文   时间:2015-01-22 23:09:10    阅读次数:481
[theano]安装-python theano cuda
I want to learning deep learning, so config cuda is a essential step. luckily it is very easy in Ubuntuinstall theano+cuda in ubuntu1. install theanoa...
分类:编程语言   时间:2015-01-21 22:03:35    阅读次数:615
【machine learning】regularization
机器学习范式,正则化...
分类:系统相关   时间:2015-01-21 15:11:39    阅读次数:391
Caffe中的优化方法
在Deep Learning中,往往loss function是非凸的,没有解析解,我们需要通过优化方法来求解。Caffe通过协调的进行整个网络的前向传播推倒以及后向梯度对参数进行更新,试图减小损失。  Caffe已经封装好了三种优化方法,分别是Stochastic Gradient Descent (SGD), AdaptiveGradient (ADAGRAD), and Nesterov’...
分类:其他好文   时间:2015-01-21 09:06:32    阅读次数:1047
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!