Basis(基础): MSE(Mean Square Error 均方误差),LMS(LeastMean Square 最小均方),LSM(Least Square Methods 最小二乘法),MLE(MaximumLikelihood Estimation最大似然估计),QP(Quadratic ...
分类:
其他好文 时间:
2017-08-19 18:34:39
阅读次数:
191
我们通过成本函数来衡量我们预测的准确性。 通过平均差的方式得到: 这个函数被称为“平方误差函数”或“均方误差”。 下面的图就是成本函数: ...
分类:
其他好文 时间:
2017-07-22 22:30:46
阅读次数:
112
# 概念 LMS(least mean square):(最小均方法)通过最小化均方误差来求最佳参数的方法。 GD(gradient descent) : (梯度下降法)一种参数更新法则。可以作为LMS的参数更新方法之一。 The normal equations : (正则方程式,将在下一篇随笔中 ...
分类:
其他好文 时间:
2017-06-18 15:51:21
阅读次数:
268
时域: LMS滤波器 参数更新公式: 权重更新收到输入信号的能量影响较大,输入信号能量越大,步长取值应该较小,保证不容易发散。 步长太大,容易发散。 步长太小,稳定,但是收敛速度慢,相互矛盾。 缺点: 1.逐个点更新,计算量大 2.瞬时跟踪能力较弱 NLMS滤波器 将输入信号的能量融合入权重更新公式 ...
分类:
其他好文 时间:
2017-06-10 12:15:43
阅读次数:
1614
给定样本示例x=(x1,x2,x3....xd),线性模型的目标是学得一个线性函数,即属性的线性组合 f(x)=w1x1+w2x2+...+wdxd+b。所以训练线性模型的目标就是求w、b.得到线性模型后就可以预测新的样本。 一、线性回归 给定数据集D={(x1,y1),(x2,y2)...(xm, ...
分类:
其他好文 时间:
2017-05-12 22:14:14
阅读次数:
171
lms算法跟Rosenblatt感知器相比,主要区别就是权值修正方法不一样。lms采用的是批量修正算法,Rosenblatt感知器使用的是单样本修正算法。两种算法都是单层感知器,也只适用于线性可分的情况。详细代码及说明如下:‘‘‘
算法:最小均方算法(lms)
均方误差:样本预测输出值与实际..
分类:
编程语言 时间:
2017-05-07 21:13:20
阅读次数:
665
http://www.cnblogs.com/ljy2013/p/6432269.html 作者:Noriko Oshima链接:https://www.zhihu.com/question/41252833/answer/108777563来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非 ...
分类:
其他好文 时间:
2017-05-02 22:19:59
阅读次数:
123
构造:输入神经元个数等于输入向量维度,输出神经元个数等于输出向量维度。(x1=(1,2,3),则需要三个输入神经元) 一 前向后传播 隐层: 输出层: 一般化,向量表示 二 反向传播 1计算梯度delta:均方误差,利用了sigmoid函数导数的有趣性。 输出层梯度: --> eg. 隐层梯度: - ...
分类:
其他好文 时间:
2017-04-15 12:28:05
阅读次数:
257
线性回归可以说是机器学习中最基本的问题类型了,这里就对线性回归的原理和算法做一个小结。 1. 线性回归的模型函数和损失函数 线性回归遇到的问题一般是这样的。我们有m个样本,每个样本对应于n维特征和一个结果输出,如下: (x(0)1,x(0)2,...x(0)n,y0),(x(1)1,x(1)2,.. ...
分类:
其他好文 时间:
2017-04-05 22:15:49
阅读次数:
270
作者:桂。 时间:2017-04-02 08:08:31 链接:http://www.cnblogs.com/xingshansi/p/6658203.html 声明:欢迎被转载,不过记得注明出处哦~ 【读书笔记08】 前言 西蒙.赫金的《自适应滤波器原理》第四版第五、六章:最小均方自适应滤波器(L ...
分类:
其他好文 时间:
2017-04-02 11:07:05
阅读次数:
756