码迷,mamicode.com
首页 >  
搜索关键字:误差    ( 2028个结果
第五章笔记
循环结构(一) 学习本章会用到的单词: while:循环,当...的时候 do:做,执行,干 index:索引,指标,指出 bug:漏洞,缺陷,计算机程序中的故障 debug:调试,除错,改正有毛病的部分 equal:等于,相等 step:步骤,一步 error:误差,错误 while循环结构 语法 ...
分类:其他好文   时间:2017-10-14 17:02:48    阅读次数:146
《结对-蓝牙考勤系统-测试过程》
项目托管平台地址:正在完善中,计划首选Github或者码云功能测试:蓝牙功能,测试方法:黑盒测试 因为是引用开源的蓝牙库只能进行黑盒测试,测试结果蓝牙模块,符合程序要求计时功能,测试方法:动态测试 动态检测每一个蓝牙设备的在线时间,与设备记录时间的误差,确保没小时误差在十秒钟之内。 ...
分类:其他好文   时间:2017-10-13 23:53:19    阅读次数:203
SVM的两个参数 C 和 gamma
SVM模型有两个非常重要的参数C与gamma。其中 C是惩罚系数,即对误差的宽容度。c越高,说明越不能容忍出现误差,容易过拟合。C越小,容易欠拟合。C过大或过小,泛化能力变差 gamma是选择RBF函数作为kernel后,该函数自带的一个参数。隐含地决定了数据映射到新的特征空间后的分布,gamma越 ...
分类:其他好文   时间:2017-10-13 23:40:09    阅读次数:292
CentOS6.9中ntpdate命令无法同步网络时间
Linux服务器运行久时,系统时间就会存在一定的误差,一般情况下可以使用date命令进行时间设置,但在做数据库集群分片等操作时对多台机器的时间差是有要求的,此时就需要使用ntpdate进行时间同步。date命令:date:查看当前时间,结果如下:TueMar401:36:45CST2014date-s09:38:40..
分类:其他好文   时间:2017-10-13 14:55:02    阅读次数:227
定位方法研究
超宽带信号持续时间短,带宽很高,时间分辨率强 超宽带定位精度高的原因: 超宽带干扰低的原因: 基于接收信号强度的定位 利用发射信号的强度值和信道衰落模型,得出待测标签与基站之间的距离,进而得出待测目标的位置。 超宽带信号从一个节点传输到另外一个节点要经过多径效应、小尺度衰落以及路径损耗和阴影效应。 ...
分类:其他好文   时间:2017-10-12 13:11:32    阅读次数:242
ML科普向
转载自http://www.cnblogs.com/qscqesze/ Basis(基础): MSE(Mean Square Error 均方误差),LMS(LeastMean Square 最小均方),LSM(Least Square Methods 最小二乘法),MLE(MaximumLikel ...
分类:其他好文   时间:2017-10-10 14:46:30    阅读次数:191
generalization ability
为什么能够学习? 机器学习是什么?为什么数学推导很重要?概率的作用是? 能够学习,即能够在sample中找到f,f未知。sample源自f。能找到f吗?找到h使得在sample中的误差和h对不在sample中的数据的误差限制在一定范围内,能够肯定在这个范围内吗? 为什么误差有上界则为能够学习?使用统 ...
分类:其他好文   时间:2017-10-08 18:58:25    阅读次数:156
MATLAB神经网络训练结果各参数解释
最上面的图形显示的是神经网络的结构图,可知有2个隐层 第二部分显示的是训练算法,这里为学习率自适应的梯度下降BP算法;误差指标为MSE 第三部分显示训练进度: Epoch:训练次数;在其右边显示的是最大的训练次数,可以设定,上面例子中设为300;而进度条中显示的是实际训练的次数,上面例子中实际训练次 ...
分类:其他好文   时间:2017-10-08 12:18:04    阅读次数:253
机器学习基石:09 Linear Regression
线性回归假设 代价函数---均方误差 最小化样本内代价函数 只有满秩方阵才有逆矩阵 线性回归算法流程 线性回归算法是隐式迭代的 线性回归算法泛化可能的保证 线性分类是近似求解,线性回归是解析求解, 线性分类中使用0/1误差,线性回归中使用均方误差, 误差方面,线性分类能小于线性回归, 但线性回归速度 ...
分类:其他好文   时间:2017-10-08 12:13:19    阅读次数:144
Tensorflow学习教程------代价函数
二次代价函数(quadratic cost): 其中,C表示代价函数,x表示样本,y表示实际值,a表示输出值,n表示样本的总数。为简单起见,使用一个样本为例进行说明,此时二次代价函数为: 假如我们使用梯度下降法(Gradient descent)来调整权值参数的大小,权值w和偏置b的梯度推导如下: ...
分类:其他好文   时间:2017-10-08 11:16:07    阅读次数:1235
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!