本栏目来源于Andrew NG老师讲解的Machine
Learning课程,主要介绍大规模机器学习以及其应用。包括随机梯度下降法、维批量梯度下降法、梯度下降法的收敛、在线学习、map
reduce以及应用实例:photo OCR。课程地址为:https://www.coursera.org/cou...
分类:
移动开发 时间:
2014-05-18 00:36:57
阅读次数:
452
在机器学习领域,我们碰到的第一个问题就是:如何选择特征量。
可是看了一些资料,这点好像都是一笔带过,因为很多都是所谓的不可观测量,如何把不可观测量量化呢?这个或许能给机器学习带来新的契机,就像当年牛顿把力、质量、加速度等模糊的概念定义下来,经典物理出现了前所未有的发展,香农把信息量化,造就了信息革命...
分类:
其他好文 时间:
2014-05-17 23:32:17
阅读次数:
329
量子力学的发展历史真是让人唏嘘不已,从它诞生到巅峰,好像就经历了一代人,当普朗克去世的时候,爱因斯坦还在和波尔争论着量子力学的完备性。
而经典物理学的发展却经历了从阿基米德到伽利略,再到牛顿等人。 谁也想不到,晶体管的发明会这样改变世界吧?
那个年代,仿佛就是近代科学的黄金时期,人才扎堆的出现。那时...
分类:
其他好文 时间:
2014-05-17 21:23:52
阅读次数:
241
训练集上训练的模型在多大程度上能够对新的实例预测出正确输出称为泛化(generalization)
对最好的泛化来说,我们应当使假设的复杂性和潜在数据的函数的复杂性相匹配。如果假设没有函数复杂,例如,当试图用直线拟合从三次项式抽取的数据时,称为欠拟合(underfitting)。在这种情况下,随着复...
分类:
其他好文 时间:
2014-05-17 21:15:53
阅读次数:
270
本文用讲一下指定分布的随机抽样方法:MC(Monte Carlo), MC(Markov Chain), MCMC(Markov Chain Monte Carlo)的基本原理,并用R语言实现了几个例子:
1. Markov Chain (马尔科夫链)
2. Random Walk(随机游走)
3. MCMC具体方法:
3.1 M-H法
3.2 Gibbs采样
PS:本篇blog为ese机器学习短期班参考资料(20140516课程)。...
分类:
其他好文 时间:
2014-05-15 23:58:14
阅读次数:
536
自从人工智能被提出之日起,已经过去了半个世纪,至今也没有达到人们期待的水准。也许,真正的人工智能永远也不会实现。
最近在研究图像检索时突然想到这个问题,在这里写下一些自己的思考。
人们最终所期望实现的人工智能应该是与人类具有一样的智慧或者超越人类的智慧,我们可以称之为智慧生命。但是智慧生命真的能够实现吗?
人工智能学科大致分为两派,一派是推理派,另一派是学习派。
推理派认为智慧生命应该像人...
分类:
其他好文 时间:
2014-05-15 23:07:10
阅读次数:
409
Python在科学计算领域,有两个重要的扩展模块:Numpy和Scipy。其中Numpy是一个用python实现的科学计算包。包括:一个强大的N维数组对象Array;比较成熟的(广播)函数库;用于整合C/C++和Fortran代码的工具包;实用的线性代数、傅里叶变换和随机数生成函数。
SciPy是....
分类:
编程语言 时间:
2014-05-15 14:06:15
阅读次数:
505
本文根据Daphne Koller的课程整理。
PDM(ProbabilisticGraphiccal Models)
称为概率图模型。下面分别说明3个词对应的意义。
概率
-给出了不确定性的明确量度。
-给出了根据不确定性进行推断的有力工具。
-利用数据结构,建立了进行学习的方法,解决十分大规模的问题。
图
这里主要用到2种概率图,用于表示依赖关系。如图1所示...
分类:
其他好文 时间:
2014-05-15 13:00:48
阅读次数:
295
主要内容来自stanford Andrew Ng视频课程的总结。讲的很好,还有对应的习题,课程可以在下面网站搜索到。
https://www.coursera.org/
机器学习的目的是在训练数据的基础上得出一个模型,该模型对于给定的输入x,给出相应的输出y。用公式表示就是:y = h(x)。注意x表示一维向量,x={x1,x2,x3...}。这里的xi也就是特征(featur...
分类:
其他好文 时间:
2014-05-15 08:20:58
阅读次数:
366