一.前言 在做神经网络的训练学习过程中,一开始,经常是喜欢用二次代价函数来做损失函数,因为比较通俗易懂,后面在大部分的项目实践中却很少用到二次代价函数作为损失函数,而是用交叉熵作为损失函数。为什么?一直在思考这个问题,这两者有什么区别,那个更好?下面通过数学的角度来解释下。 思考:我们希望我们损失函 ...
分类:
其他好文 时间:
2018-09-15 20:05:46
阅读次数:
468
一、线性回归 在统计学中,线性回归(Linear Regression)是利用称为线性回归方程的最小平方函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。这种函数是一个或多个称为回归系数的模型参数的线性组合。 回归分析中,只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这 ...
分类:
其他好文 时间:
2018-09-15 01:19:36
阅读次数:
1170
FIR:有限脉冲滤波器,线性较好,用非递归算法,可用FFT,计算速度快,不用四舍五入,适合于对相位敏感的线性应用场合,设计灵活没有现成公式可用。 输出与现在和过去的输入有关。 IIR:无限脉冲滤波器,采用递归算法,计算速度慢,,非线性四舍五入可引起误差和震荡,适合于对相位不敏感的线性应用场合,高通 ...
分类:
其他好文 时间:
2018-09-14 10:52:12
阅读次数:
177
1 线性回归 2 回归系数(偏置项) 3 误差项(随机干扰项) 误差项的要求:相互独立 服从均值为0,方差为 的正态分布 4 最小二乘法求解 ...
分类:
其他好文 时间:
2018-09-13 01:19:38
阅读次数:
135
下面这一段节选自知乎用户,具体链接为:https://www.zhihu.com/question/27068705/answer/82132134。 在机器学习过程中,我们用训练数据集去训练(学习)一个model(模型),通常的做法是定义一个Loss function(误差函数),通过将这个Los ...
分类:
其他好文 时间:
2018-09-12 17:00:58
阅读次数:
218
PID参数整定教程 1.数字PID控制算法介绍 位置型&增量型 由于是面向计算机编程实现为目的,这里就直接从数字PID切入正题,如果想要了解更多PID方面的基本知识请参阅相关理论资料。 增量型算法的优点: a. 增量算法不需要做累加,控制量增量的确定仅与最近几次误差采样值有关,计算误差或计算精度问题 ...
分类:
其他好文 时间:
2018-09-10 18:02:19
阅读次数:
599
<!--WizRtf2Html Charset=134 -->色环表示法。 <!--more--> 1.三个或三个以上的,最靠近电阻一端的第1条色环的颜色表示第一位数字;第2条色环的颜色表示第2位数第三位色环颜色表示乘数,第四位表示误差。 2.五环电阻,123环颜色表示读数,第四位为乘数,第五位为误 ...
分类:
其他好文 时间:
2018-09-09 15:15:48
阅读次数:
129
多层神经网络 对于多层神经网络的训练,delta规则是无效的,因为应用delta规则训练必须要误差,但在隐含层中没有定义。输出节点的误差是指标准输出和神经网络输出之间的差别,但训练数据不提供隐藏层的标准输出。 真正的难题在于怎么定义隐藏节点的误差,于是有了反向传播算法。反向传播算法的重要性在于,它提 ...
分类:
其他好文 时间:
2018-09-09 14:43:05
阅读次数:
282
[MATAB神经网络30个案例分析].史峰.扫描版[www.minxue.net] BP神经网络是一种多层前馈神经网络,信号向前传播,误差反向传播 拓扑结构图 训练过程包括以下步骤 网络初始化:确定网络输入层节点数,隐含层节点数,输出层节点数;初始化权值、阈值, 计算隐含层输出; 输出层计算; 误差 ...
分类:
其他好文 时间:
2018-09-09 00:42:20
阅读次数:
190
k -means聚类是一种分区方法。该函数kmeans将数据分区为k个互斥集群,并返回它为每个观察分配的集群的索引。 与层次聚类不同,k -means聚类对实际观察(而不是较大的相异度度量集)进行操作,并创建单个级别的聚类。这些区别意味着k -means聚类通常比大量数据的层次聚类更合适。 使用方法 ...
分类:
其他好文 时间:
2018-09-08 21:03:38
阅读次数:
1024