码迷,mamicode.com
首页 >  
搜索关键字:最小二乘法    ( 356个结果
数据挖掘、机器学习基础算法
Basis(基础):MSE(Mean Square Error 均方误差),LMS(LeastMean Square 最小均方),LSM(Least Square Methods 最小二乘法),MLE(MaximumLikelihood Estimation最大似然估计),QP(Quadratic Programming 二次规划), CP(Conditional Probability条件概率),...
分类:编程语言   时间:2016-05-07 07:58:05    阅读次数:237
非线性最小二乘法之lm算法的c代码
函数:f=2*jn*(atan((b + o - x)/h) + atan((b - o + x)/h)) - 2*jn*(atan((b + o - x)/(h + 1)) + atan((b - o + x)/(h + 1))) 这是一个实际的工程应用公式。参数为jn,o,b,h。//main函数,写的比较粗糙,但是可以运行,实际工程应用结果也比较理想。 //如果想提高精度,将float换成d...
分类:编程语言   时间:2016-05-06 12:46:31    阅读次数:969
最小二乘法
(一)正交集与正交基 如果,S中任何两个不同的向量都正交,那么,S称为正交向量集。 如果S是正交向量集 并且是 线性无关集,那么S是正交集。 证明: 同理,所有的ci都是0,所以S是线性无关集。 上述证明思路在下文中会经常使用,故称之为证明方法1. (二)正交投影 假设是Rn子空间W的正交基,对W中 ...
分类:其他好文   时间:2016-05-06 09:26:48    阅读次数:377
【基础】常用的机器学习&数据挖掘知识点
Basis(基础): MSE(Mean Square Error 均方误差),LMS(LeastMean Square 最小均方),LSM(Least Square Methods 最小二乘法),MLE(MaximumLikelihood Estimation最大似然估计),QP(Quadratic ...
分类:其他好文   时间:2016-05-05 07:02:42    阅读次数:180
学习大数据第五天:最小二乘法的Python实现(二)
1.numpy.random.normal numpy.random.normal numpy.random.normal(loc=0.0, scale=1.0, size=None) Draw random samples from a normal (Gaussian) distribution. The probability density function o...
分类:编程语言   时间:2016-04-29 17:44:37    阅读次数:265
学习大数据第五天:最小二乘法的Python实现(二)
1.numpy.random.normal numpy.random.normal numpy.random.normal(loc=0.0, scale=1.0, size=None) Draw random samples from a normal (Gaussian) distribution. The probability density function o...
分类:编程语言   时间:2016-04-26 19:48:44    阅读次数:290
加权最小二乘法
本文加权最小二乘法为研究生阶段首次做的算法推导和实现的尝试,很简单,但是当看到自己做的结果的时候还是很开心滴 ...
分类:其他好文   时间:2016-04-26 19:14:51    阅读次数:131
机器学习------精心总结
1.数学 2.机器学习 Java 机器学习 工具 & 库 1.处理小数据效果好 2.深度学习—大数据,超过500w;图像,语言方面效果奇好 SVD 最小二乘法 梯度下降法 局部加权回归 1.最大似然估计 2.logistic回归 3.感知器的初步—logistic的简化情节 牛顿法 1.介绍了牛顿方 ...
分类:其他好文   时间:2016-04-23 11:53:53    阅读次数:699
算法学习#03--详解最小二乘法原理和代码
最小二乘法的目标:求误差的最小平方和,对应有两种:线性和非线性。线性最小二乘的解是closed-form(如下文),而非线性最小二乘没有closed-form,通常用迭代法求解(如高斯牛顿迭代法,本文不作介绍)。...
分类:编程语言   时间:2016-04-22 18:58:40    阅读次数:264
最小二乘法(一维)
最小二乘拟合直线方程:y=ax+b,就是线性回归。(n代表样本数量)。误差函数为: e=∑(yi-axi-b)^2,各偏导为: de/da=-2∑(yi-axi-b)xi=0de/db=-2∑(yi-axi-b)=0 于是得到关于a,b的线性方程组: ∑(xi^2)*a+(∑xi)*b=∑yixi( ...
分类:其他好文   时间:2016-03-30 19:25:29    阅读次数:145
356条   上一页 1 ... 23 24 25 26 27 ... 36 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!