随着deep learning的火爆,神经网络(NN)被大家广泛研究使用。但是大部分RD对BP在NN中本质不甚清楚,对于为什这么使用以及国外大牛们是什么原因会想到用dropout/sigmoid/ReLU/change learnRate/momentum/ASGD/vanishment等问题等呢....
分类:
微信 时间:
2014-11-27 17:44:23
阅读次数:
2230
BP算法推算过程 当加入第$k$个输入时,隐蔽层$h$结点的输入加权和为:\[s_h^k = \sum\limits_i {w_{ih} x_i^k }\]相应点的输出:\[y_h^k = F(s_h^k ) = F(\sum\limits_i {w_{ih} x_i^k } )\]同样,输出层$....
分类:
编程语言 时间:
2014-11-22 15:57:00
阅读次数:
420
序: 今天刚听了一个关于 Extreme Learning Machine (超限学习机)的讲座,讲员就是ELM的提出者 黄广斌 教授
。ELM的效果自然是比SVM,BP 算法优异很多。并且相对比 当下最火的 Deep Learning, 其有很大的优势: 运算速度非常快,准确率高,能Online Sequential Learning。
算法还没仔细研究,先上图吧。
正文:
...
分类:
系统相关 时间:
2014-10-21 15:27:59
阅读次数:
178
主要讲述反向传输神经网络(BP)算法的基本流程和自己在训练BP神经网络的一些经验。
分类:
其他好文 时间:
2014-06-21 17:51:47
阅读次数:
252