码迷,mamicode.com
首页 >  
搜索关键字:梯度    ( 2016个结果
机器学习(4)之Logistic回归
机器学习(4)之Logistic回归1. 算法推导 与之前学过的梯度下降等不同,Logistic回归是一类分类问题,而前者是回归问题。回归问题中,尝试预测的变量y是连续的变量,而在分类问题中,y是一组离散的,比如y只能取{0,1}。 假设一组样本为这样如图所示,如果需要用线性回归来拟合这些样本...
分类:其他好文   时间:2014-09-11 23:45:12    阅读次数:348
【cs229-Lecture4】GLMS:选定指数分布族,如何用它来推导出GLM?
在Lecture4中有3部分内容: Newton’s method 牛顿方法 Exceponential Family 指数分布族 Generalized Linear Models 广义线性模型(GLMS) 牛顿法上一篇随便中已经讲过了,是平行于梯度下降算法的另一种最优化算法。 然后,视频中证明了...
分类:其他好文   时间:2014-09-11 18:59:42    阅读次数:278
机器学习(3)之最小二乘法的概率解释
机器学习(3)之最小二乘法的概率解释在前面梯度下降以及正规方程组求解最优解参数Θ时,为什么选择最小二乘作为计算参数的指标,使得假设预测出的值和真正y值之间面积的平方最小化?我们提供一组假设,证明在这组假设下最小二乘是有意义的,但是这组假设不唯一,还有其他很多方法可以证明其有意义。(1)假设1:假设输...
分类:其他好文   时间:2014-09-11 01:02:41    阅读次数:291
【cs229-Lecture4】Newton’s method
之前我们在求Logistic回归时,用的是梯度上升算法,也就是要使得似然函数最大化,利用梯度上升算法,不断的迭代。这节课引出牛顿方法,它的作用和梯度上升算法的一样的,不同的是牛顿方法所需的迭代次数更少,收敛速度更快。红色曲线是利用牛顿法迭代求解,绿色曲线是利用梯度下降法求解。牛顿法:wiki牛顿法(...
分类:其他好文   时间:2014-09-10 15:30:40    阅读次数:317
机器学习(2)之线性回归
机器学习(2)之线性回归上一章介绍了梯度下降算法的线性回归,本章将介绍另外一种线性回归,它是利用矩阵求导的方式来实现梯度下降算法一样的效果。1. 矩阵的求导首先定义表示m×n的矩阵,那么对该矩阵进行求导可以用下式表示,可以看出求导后的矩阵仍然为m×n这里要用到矩阵迹的特性,trace. 对于一个n阶...
分类:其他好文   时间:2014-09-09 11:49:28    阅读次数:182
机器学习(1)之梯度下降(gradient descent)
机器学习(1)之梯度下降(gradient descent)题记:最近零碎的时间都在学习Andrew Ng的machine learning,因此就有了这些笔记。梯度下降是线性回归的一种(Linear Regression),首先给出一个关于房屋的经典例子,面积(feet2)房间个数价格(1000$...
分类:其他好文   时间:2014-09-06 01:00:52    阅读次数:260
线性回归与梯度下降算法
线性回归与梯度下降算法作者:上品物语知识点:线性回归概念梯度下降算法 l 批量梯度下降算法 l 随机梯度下降算法 l 算法收敛判断方法1.1 线性回归在统计学中,线性回归(Linear Regression)是利用称为线性回归方程的最小平方函数对一个或多个自变量和因变量之间关系进行...
分类:其他好文   时间:2014-09-02 19:26:35    阅读次数:655
模式识别开发之项目---基于人头检测的人流量监测
最近在做基于Meanshift的人脸跟踪,效果一般。标准算法选择Hue分量作为特征,为了提高对背景的鲁棒性,有人提出了结合梯度、LBP等特征的多特征空间。但是直方图维数太少,而且丢失空间信息,使得特征分类价值退化严重。经测试,对于背景颜色与肤色类似(黄色)的情况,跟踪失效。因此看了看市面上的产品如何...
分类:其他好文   时间:2014-08-31 13:12:21    阅读次数:285
这一周的收获与总结_BP
这一周主要用CUDA实现了BP前馈神经网络,但是一路也遇到了很多问题。1. 批梯度下降时修改权值与偏置时候没有将累积的误差项/偏置项除以总样本数,导致每次修改值远远大于真实值,程序最后全1或全0. 我最后用matlab运行时候,结合李春光老师的神经计算课件找到了这个bug2.CUDA运行多块多线程并...
分类:其他好文   时间:2014-08-30 02:21:28    阅读次数:299
Theano学习笔记(四)——导数
导数使用T.grad计算。 这里使用pp()打印梯度的符号表达式。 第3行输出是打印了经过优化器简化的符号梯度表达式,与第1个输出相比确实简单多了。 fill((x** TensorConstant{2}), TensorConstant{1.0})指创建一个x**2大小的矩阵,并填充1。 importtheano.tensor as T fromtheano import pp fr...
分类:其他好文   时间:2014-08-29 20:10:08    阅读次数:338
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!