AI实现的基本思路-极大极小值搜索算法 五子棋看起来有各种各样的走法,而实际上把每一步的走法展开,就是一颗巨大的博弈树。在这个树中,从根节点为0开始,奇数层表示电脑可能的走法,偶数层表示玩家可能的走法。 假设电脑先手,那么第一层就是电脑的所有可能的走法,第二层就是玩家的所有可能走法,以此类推。 我们 ...
分类:
编程语言 时间:
2016-10-21 13:37:25
阅读次数:
548
剪枝是必须的 上一篇讲了极大极小值搜索,其实单纯的极大极小值搜索算法并没有实际意义。 可以做一个简单的计算,平均一步考虑 50 种可能性的话,思考到第四层,那么搜索的节点数就是 50^4 = 6250000,在我的酷睿I7的电脑上一秒钟能计算的节点不超过 5W 个,那么 625W 个节点需要的时间在 ...
分类:
编程语言 时间:
2016-10-21 13:35:36
阅读次数:
691
【HDOJ 5838】Mountain(局部极小值)MountainTime Limit: 3000/1500 MS (Java/Others) Memory Limit: 65536/65536 K (Java/Others)
Problem Description Zhu found a map which is a N * M rectangular grid.Each cell ha...
分类:
其他好文 时间:
2016-08-15 19:16:53
阅读次数:
200
分水岭是区域分割三个方法的最后一个,对于前景背景的分割有不错的效果。
分水岭分割方法,是一种基于拓扑理论的数学形态学的分割方法,其基本思想是把图像看作是测地学上的拓扑地貌,图像中每一点像素的灰度值表示该点的海拔高度,每一个局部极小值及其影响区域称为集水盆,而集水盆的边界则形成分水岭。分水岭的概念和形成可以通过模拟浸入过程来说明。在每一个局部极小值表面,刺穿一个小孔,然后把整个模型慢慢...
分类:
其他好文 时间:
2016-08-14 02:05:54
阅读次数:
518
机器学习的优化问题中,梯度下降法和牛顿法是常用的两种凸函数求极值的方法,他们都是为了求得目标函数的近似解。梯度下降的目的是直接求解目标函数极小值,而牛顿法则变相地通过求解目标函数一阶导为零的参数值,进而求得目标函数最小值。在逻辑回归模型的参数求解中,一般用改良的梯度下降法,也可以用牛顿法。...
分类:
其他好文 时间:
2016-07-16 07:02:38
阅读次数:
216
本章总结优化学习率的知识,而前置知识就是“线性回归、梯度下降算法”,因此如果这一章你看的云里雾里甚至连学习率是什么都不知道的话就需要先吧前置知识搞定了。
其他说明
因为本总结的前置知识是“线性回归、梯度下降算法”,所以之后的内容都是以“求目标函数f(x)的极小值”为目的。
不过不用担心求极大值的话该怎么办,因为直接给f(x)加个负号就将问题转换为了求极小值问题了。...
分类:
其他好文 时间:
2016-07-13 16:28:05
阅读次数:
384
本章总结优化学习率的知识,而前置知识就是“线性回归、梯度下降算法”,因此如果这一章你看的云里雾里甚至连学习率是什么都不知道的话就需要先吧前置知识搞定了。
其他说明
因为本总结的前置知识是“线性回归、梯度下降算法”,所以之后的内容都是以“求目标函数f(x)的极小值”为目的。
不过不用担心求极大值的话该怎么办,因为直接给f(x)加个负号就将问题转换为了求极...
分类:
其他好文 时间:
2016-07-13 16:28:04
阅读次数:
555
1. 浮点型:浮点数 float | 双精度数 double | 实数 real。 2. 要测试浮点数是否相等,要使用一个仅比该数值大一丁点的最小误差值(机器极小值 epsilon | 最小单元取整数)。 3. NaN 代表着任何不同值,用 is_nan() 来检查。 ...
分类:
编程语言 时间:
2016-06-24 12:49:38
阅读次数:
144
提升是一个机器学习技术,可以用于回归和分类问题,它每一步产生一个弱预测模型(决策树),并加权累加到总模型中;如果每一步的弱预测模型生成都是依据损失函数的梯度方向,则称之为梯度提升。
梯度提升算法首先给定一个目标损失函数,它的定义域是所有可行的弱函数集合(基函数);提升算法通过迭代的选择一个负梯度方向上的基函数来逐渐逼近局部极小值。这种在函数域的梯度提升观点对机器学习的很多领域有深刻...
分类:
编程语言 时间:
2016-05-06 15:11:42
阅读次数:
231
机器学习中常会用随机梯度下降法求解一个目标函数 L(Θ)L(\Theta) ,并且常是最小化的一个优化问题:
min L(Θ)min \ L \left(\Theta\right)
我们所追求的是目标函数能够快速收敛或到达一个极小值点。而随机梯度法操作起来也很简单,不过是求偏导数而已,但是为什么是这样呢?为什么算出偏导数就能说下降得最快?初期并不很明了,后来看过一些数学相关的知识才稍微明白了一点...
分类:
其他好文 时间:
2016-05-06 15:07:10
阅读次数:
1119