码迷,mamicode.com
首页 > 其他好文 > 详细

BP神经网络

时间:2017-08-20 00:47:47      阅读:203      评论:0      收藏:0      [点我收藏+]

标签:src   一个   href   link   思想   基础   bp神经网络   margin   利用   

作者:桂。

时间:2017-08-19  22:40:05

链接:http://www.cnblogs.com/xingshansi/p/7398396.html 


未完待续

前言

BP与RBF是分析基本神经网络的两个概念,最近接触到这些概念(目前的认识是:用在矩阵分析中减少计算量),简单梳理一下。

这里记录基本的BP神经网络,神经网络的基础是感知器,这里的BP(back propagation )算法是求解神经网络参数的一种实现思路。

一、算法简介

  任何从输入到输出的连续函数都可以用一个三层非线性网络实现,条件是给出足够多的隐单元数。BP的基本结构:

技术分享

包括输入单元、输出单元、中间的各个层次称为隐单元,上面的网络结构可以表述为:

技术分享

其中f(.)是判别函数,因为优化通常涉及到求导,所以平滑性对梯度下降类学习方法很有效,通常f(.)选取连续易求导的判别函数,如sigmoid。

反向传播主要利用误差项(正是因为:根据误差项,建立准则函数,进行参数优化,而误差只能从输出计算,因而误差的计算顺序从后往前,也就是反向传播的概念,进而更新权重w。)。

由于涉及到梯度下降,因此针对参数求解的那一套改进这里也使用:如基于一阶导的随机梯度下降、批量梯度下降,基于二阶导的Newton-raphson等等。

 

二、BP的直观描述

   A-结构图及映射关系

首先借助一篇讲义来直观描述BP的思想:

BP的结构图:

技术分享

结构图对应的映射关系:

技术分享

  B-神经网络的计算步骤

神经网络在参数给定的情况下,计算依旧是从输入→输出的顺序。

第一层

技术分享

技术分享

技术分享

第二层

技术分享

技术分享

第三层

 技术分享

 至此已经得到输出结果,可以根据训练数据的理想输出,计算误差(反向传播)。

  C-误差反向传播

至此可以借助准则函数,更新利用了求偏导的特性(也称为链式微分法则)。

  D-利用BP更新权重的步骤

 

三、BP的参数推导及算法流程

 

参考

  • http://galaxy.agh.edu.pl/~vlsi/AI/backp_t_en/backprop.html
  • 《模式分类》第二版,p235~240.

BP神经网络

标签:src   一个   href   link   思想   基础   bp神经网络   margin   利用   

原文地址:http://www.cnblogs.com/xingshansi/p/7398396.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!