参考资料: 在线免费书籍 http://neuralnetworksanddeeplearning.com/chap1.html 中汉对照术语(按字母顺序) artificial neutron: perceptron(以前), sigmoid neutron(如今的模型) bias 偏差 :for ...
分类:
其他好文 时间:
2016-10-21 19:53:46
阅读次数:
246
深度偏移用来解决共面情况下出现闪烁的问题 通过给多边形增加一个z方向深度偏移(depth bias,z_bias),使3D空间的共面多边形看起来好像并不共面,以便它们能够被正确渲染。这种技术是很有用的,例如,我们要渲染投射在墙上的阴影,这时候墙和阴影共面,如果没有深度偏移,先渲染墙,再渲染阴影,由于 ...
分类:
其他好文 时间:
2016-09-01 18:48:24
阅读次数:
340
Conventional sampling techniques are based on Shannon-Nyquist theory which states that the required sampling rate for perfect recovery of a band-limit... ...
分类:
其他好文 时间:
2016-08-22 23:00:31
阅读次数:
272
1.对每个mesh 在脚本里加bias 由美术勾 {a. vertex shader b. depth bias slop depth bias rasterizateState} 2.inverse depth http://outerra.blogspot.hk/2012/11/maximizi ...
分类:
其他好文 时间:
2016-08-02 16:39:47
阅读次数:
182
boosting和bagging的差别: bagging中的模型是强模型,偏差低,方差高。目标是降低方差。在bagging中,每个模型的bias和variance近似相同,但是互相相关性不太高,因此一般不能降低Bias,而一定程度上能降低variance。典型的bagging是random fore ...
分类:
其他好文 时间:
2016-08-02 15:13:02
阅读次数:
817
Q: When you use `go tool pprof` get heap data, profile is empty. A: The default sampling rate is 1 sample per 512KB of allocated memory. So If you app ...
分类:
其他好文 时间:
2016-07-15 13:39:32
阅读次数:
422
用一个模型来做预测,预测误差的来源主要有两部分,分别为 bias 与 variance ,模型的性能取决于 bias 与 variance 的 tradeoff ,理解 bias 与 variance 有助于我们诊断模型的错误,且避免 over-fitting 或者 under-fitting. 数... ...
分类:
其他好文 时间:
2016-07-08 21:28:26
阅读次数:
120
Gradient Descent with Large DatasetsLearning With Large Datasets
我们已经知道,得到一个高效的机器学习系统的最好的方式之一是,用一个低偏差(low bias)的学习算法,然后用很多数据来训练它。 下面是一个区分混淆词组的例子:
但是,大数据存在一个问题,当样本容量m=1,000时还行,但是当m=100,000,000呢?请看一下...
分类:
系统相关 时间:
2016-06-24 15:21:15
阅读次数:
194
在神经网络中,我们经常会用到 back propagation 算法来训练神经网络,根据网络的loss 函数,对网络
中的权值(weights)与偏移量(bias)求导,根据导数对权值与偏移量进行更新。
本文总结一下神经网络中,常用的几种 loss 函数,以及该 loss 函数的导数。假设输出层的值为:
f=wx+b f=wx+b
ww 是权值, bb 是偏移量, xx 是上一个...
分类:
其他好文 时间:
2016-06-21 07:35:05
阅读次数:
208
http://www.tuicool.com/articles/63aANv 一、序言 陆陆续续的如果累计起来,我估计至少有二十来位左右的朋友加我QQ,向我咨询有关抠图方面的算法,可惜的是,我对这方面之前一直是没有研究过的。除了利用和Photoshop中的魔棒一样的技术或者Photoshop中的选区 ...
分类:
编程语言 时间:
2016-06-16 16:13:59
阅读次数:
626