从原理上真正学会PID控制 1 比例:最快,但由于稳态误差(增加和消耗相等永远达不到目标的现象)存在达不到目标,同时比例过大会出现震荡 2 积分:为了消除比例环节中的稳态误差 3 微分:为了消除比例环节中的震荡,提前介入,在接近目标时减小反馈防止过充。 ...
分类:
其他好文 时间:
2020-07-22 20:58:18
阅读次数:
77
1? 模式识别系统 数据获取:用计算机语言(可计算数字符号)来表示研究对象 预处理:对研究对象去噪声,复原等 特征提取与选择:对数据进行变换,降纬,简化处理等 分类决策:归类() 分类器设计:对分类结果进行判断检测,误差分析 2? 模式识别主要问题 特征选择与优化:特征选择:使同类物体紧致性; 组合 ...
分类:
其他好文 时间:
2020-07-22 16:02:05
阅读次数:
67
private static double EARTH_RADIUS = 6378.137; private static double rad(double d) { return d * Math.PI / 180.0; } /** * 通过经纬度获取距离 不同的计算方式存在误差 * * @pa ...
分类:
编程语言 时间:
2020-07-22 15:57:13
阅读次数:
66
sns.barplot() :条形图主要展现的是每个矩形高度的数值变量的中心趋势的估计 条形图只显示平均值(或其他估计值) 注:countplot参数和barplot基本差不多,可以对比着记忆,有一点不同的是countplot中不能同时输入x和y,且countplot没有误差棒, 类别特征barpl ...
分类:
其他好文 时间:
2020-07-21 22:29:28
阅读次数:
157
一、基本术语 1.18泛化:学得模型是否适用于新样本的能力 注:假设样本空间的全体样本服从于一个未知的分布D,我们得到的样本都是独立从D上采样得到的,即“独立同分布”。训练样本越多,地道道关于D的信息越多,也就也可能通过学习得到强泛化能力的模型 1.19归纳:从特殊到一般的“泛化”过程 1.20演绎 ...
分类:
其他好文 时间:
2020-07-21 01:21:58
阅读次数:
82
梯度下降法主要分为三种, 梯度下降法 随机梯度下降 小批量梯度下降 下面分别来介绍一下,这样更加有助于理解它们之间的联系。 梯度下降法 梯度下降使用整个训练数据集来计算梯度,因此它有时也被称为批量梯度下降 下面就以均方误差讲解一下,假设损失函数如下: 其中 是预测值, 是真实值,那么要最小化上面损失 ...
分类:
其他好文 时间:
2020-07-20 22:40:33
阅读次数:
75
exec dbms_stats.gather_table_stats('schema名字','表名'); select table_name,num_rows from user_tables order by num_rows desc; 注: analyze table 表名 compute s ...
分类:
其他好文 时间:
2020-07-19 00:55:49
阅读次数:
93
1. 均方误差MSE 2. 平均绝对误差MAE # true: 真目标变量的数组 # pred: 预测值的数组 def mse(true, pred): return np.sum((true - pred)**2) def mae(true, pred): return np.sum(np.abs ...
分类:
其他好文 时间:
2020-07-16 00:09:41
阅读次数:
74
提升的概念 提升算法 提升算法推导 梯度提升决策树 决策树的描述 正则项的定义 目标函数的计算 目标函数继续化简 子树划分 Adaboost 误差上限 方差与偏差 Bagging能够减少训练方差,对于不剪枝的决策树、神经网络等学习器有良好的集成效果 Boosting减少偏差,能够基于泛化能力较弱的学 ...
分类:
其他好文 时间:
2020-07-15 01:15:23
阅读次数:
72
计算机视觉任务主要分为:分类、检测、识别、定位四大类。 L1 loss ,L2 loss和smooth L1 loss 引自:https://cloud.tencent.com/developer/article/1441560 一、常见的MSE、MAE损失函数 1.1 均方误差、平方损失 均方误差 ...
分类:
其他好文 时间:
2020-07-12 18:48:12
阅读次数:
100