1、字符串变量不能赋值给字符变量。 2、Math函数输出尽量取舍,一般用ToString("f4"),否则显示误差。 3、针对短时间内大量random产生重复问题(http://www.cnblogs.com/rupeng/p/3723018.html) 可以使用c#.net中的RNGCryptoS ...
消元法解方程,将矩阵化成上三角或者下三角矩阵: 有100个等式的方程的消法需要3分之百万步(乘法和减法),接近百万步的时候,舍入误差将会很大。 行列式法(当矩阵变大时运算量急剧增大): 消元法是当前普遍采用的方法。 从行看,方程角度 从列看,向量角度 【从行向量的角度看线性组合Ax=b】 面方程 a ...
分类:
其他好文 时间:
2016-07-05 14:19:30
阅读次数:
527
上一篇提到,无论在单目、双目还是RGBD中,追踪得到的位姿都是有误差的。随着路径的不断增长,前面帧的误差会一直传递到后面去,导致最后一帧的位姿在世界坐标系里的误差有可能非常大。除了利用优化方法在局部和全局调整位姿,也利用回环检测(loop closure)来优化位姿。 这件事情就好比一个人走在陌生的 ...
分类:
其他好文 时间:
2016-07-03 15:52:02
阅读次数:
2007
2016-07-02 java简单实现聚类算法(以前的作业,想记录下的时候,貌似语法都忘记了,,,呜呜呜) 但是有一个小问题,,,,我其实每次迭代之后(就是达不到我的收敛标准之前【好纠结呀这句话,还打不到,还之前,OMG】,就是聚类中心的误差达不到指定小的时候),,,我虽然重新算了聚类中心,但是其实 ...
分类:
编程语言 时间:
2016-07-02 21:30:03
阅读次数:
329
原题是写一个BP神经网络来拟合西瓜数据集,西瓜数据集我已经数值化了如下: 而后调用pybrain的库建立具有50个单元的单隐层神经网络,如下 下面分别是训练10000次和1000次的效果对比: 可以看到10000次的训练误差明显要低的多,但是有可能有过拟合问题。 参考文章:http://www.ze ...
分类:
其他好文 时间:
2016-07-02 01:50:34
阅读次数:
1017
原创文章
转载请注册来源http://blog.csdn.net/tostq
上一节我们介绍了卷积神经网络的前向传播过程,这一节我们重点介绍反向传播过程,反向传播过程反映神经网络的学习训练过程。
误差反向传播方法是神经网络学习的基础,网络上已经有许多相关的内容了,不过关于卷积网络的误差反向传递的公式推导却比较少,而且也不是很清晰,本文将会详细推导这个过程,虽...
分类:
编程语言 时间:
2016-06-30 12:55:02
阅读次数:
487
进行两个体数据间的配准,并且显示配准后的误差:
这里采用的图片是matlab子带的两张MR膝盖图,“knee1.dcm” 作为参考图像,"knee2.dcm"为浮动图像!
Plain Text code
?
1
2
fixed = dicomread('knee1.dcm'); % 读参考图像fixed...
分类:
其他好文 时间:
2016-06-30 12:51:37
阅读次数:
320
1.训练误差:学习器在训练集上的误差,也称“经验误差” 2.泛化误差:学习器在新样本上的误差 显然,我们的目标是得到在新样本上表现更好的学习器,即泛化误差要小 3.过拟合:学习器把训练样本学的太好了,导致泛化性能下降(学过头了。。。让我联想到有些人死读书,读死书,僵化,不懂得变通和举一反三) 原因: ...
分类:
其他好文 时间:
2016-06-30 12:32:55
阅读次数:
183
设a为主动物体,b为跟随物体。 如果a,b都在同一个Update里更新坐标,那么两者自然是同步的。 如果a在a.Update里更新位置,而b在b.Update里将自己的位置更新为与a相同,那就会有误差。 而且即使a的运动非常缓慢平滑,b也会出现到处乱闪的情况(总之不是我们臆想得那样,b至多比a延迟一 ...
分类:
编程语言 时间:
2016-06-26 15:24:15
阅读次数:
201
1、NSThread: 优点:NSThread 延时时间更精确;方法可控,可以取消执行。 缺点:代码量较大; 2、GCD: 优点:代码紧凑;缺点:时间有误差,不可控; ...
分类:
其他好文 时间:
2016-06-26 12:49:45
阅读次数:
144