这一章可能是Andrew Ng讲得最不清楚的一章,为什么这么说呢?这一章主要讲后向传播(Backpropagration, BP)算法,Ng花了一大半的时间在讲如何计算误差项$\delta$,如何计算$\Delta$的矩阵,以及如何用Matlab去实现后向传播,然而最关键的问题——为什么要这么计算?...
分类:
Web程序 时间:
2015-12-27 23:13:30
阅读次数:
296
之前两篇转载的文章: 遗传算法入门到掌握(一)、遗传算法入门到掌握(二) 对遗传算法的数学推导讲解得非常详细,同时我也附带了一份遗传算法的C语言实现,这篇文章将要运用遗传算法对一个多项式求最小值,要求在(-8,8)间寻找使表达式达到最小的x,误差为0.001。但是那篇文章仅仅讲解了关于本例的遗传算法的规则,并没有详细的算法过程。这篇文章简介一下遗传算法的具体算法过程,并且用MATLAB实现遗传算法的...
分类:
编程语言 时间:
2015-12-20 19:32:38
阅读次数:
385
XML/HTML Code复制内容到剪贴板Geolocation对象,Geolocation与GoogleMap交互------JSMix您所在的位置:经度unknown,纬度unknown
分类:
Web程序 时间:
2015-12-20 19:19:27
阅读次数:
221
[html]view plaincopy这是一个古老的问题,古老到从我若干年前遇到这样的问题就是一个解决之道:反复尝试。其实标准是什么,标准就是一个束缚,一种按既定规则的束缚,错点点,你的调用就可能不成功,不成功后你要花费大量的力气查找原因和错误,差异很多帖子,查找相似的地方,Webservice的...
分类:
编程语言 时间:
2015-12-18 21:16:48
阅读次数:
358
主要两个方面 Probabilistic modeling 概率建模,神经网络模型尝试去预测一个概率分布 Cross-entropy作为误差函数使得我们可以对于观测到的数据 给予较高的概率值 同时可以解决saturation的问题 前面提到的线性隐层的降维作用(减少训练参数) 这是一个最初版的神经网...
分类:
编程语言 时间:
2015-12-16 21:16:45
阅读次数:
1080
做平差的时候,需要解误差方程组,而 有的书本上说解线性的误差方程组,并不需要初值。在查阅了测量平差书本之后,书里描述,一般是需要参数的初始值的。这就产生了疑问。因为非线性方程的线性化之后,舍掉了二次项之后的值,会造成平差模型的弱化。因此在进行非线性方程的平差过程中,一般是对改正值进行一个迭代计算,使...
分类:
其他好文 时间:
2015-12-08 12:56:35
阅读次数:
438
提升方法(boosting)是一种常用的统计学习方法,应用广泛且有效。在分类问题中,它通过改变训练样本的权重,学习多个分类器,并将这些分类器进行线性组合,提高分类的性能。 本章首先介绍提升方法的思路和代表性的提升算法AdaBoost,然后通过训练误差分析探讨AdaBoost为什么能够提高学习精度,....
分类:
其他好文 时间:
2015-12-04 14:45:46
阅读次数:
287
NTP全称是NetworkTimeProtocol,是用来让计算机之间实现时间同步的协议,而发布这种校对时间的服务器,就是NTPServer。一般来说客户端与服务器之间的时间误差在几十毫秒以内,当然,如果你的时间服务器在美国或者欧洲,误差可能稍大一些。在我们的日常生活中,能接触到NTP的也..
分类:
其他好文 时间:
2015-12-03 15:47:30
阅读次数:
132
1.编写一个java application,求出e=1+1/1!+1/2!+1/3!+...+1/n!+...的近似值,要求误差小于0.0001。package test;public class Test { //求n的阶乘 public static int fn...
分类:
编程语言 时间:
2015-12-01 22:40:44
阅读次数:
159
主要为第十周内容:大规模机器学习、案例、总结 (一)随机梯度下降法 如果有一个大规模的训练集,普通的批量梯度下降法需要计算整个训练集的误差的平方和,如果学习方法需要迭代20次,这已经是非常大的计算代价。 首先,需要确定大规模的训练集是否有必要。当我们确实需要一个大规模的训练集,可以尝试用随机梯度下降...
分类:
其他好文 时间:
2015-11-30 22:05:34
阅读次数:
153