当今Deep-Learning已经是火到一定境界了,深度学习神经网络(DNN)在计算机视觉领域的表现可谓见效非凡。当然,工程上运用了卷积神经网络来减少计算量而不是全连结的神经网络-这样计算量实在太大了。但是,对于神经网络来说计算量真的不是问题,因为它的结构能够确保它能够并行计算,一旦网络的每一个单元都能够独立的进行计算,每一层再多的连结也是同时进行计算的。期待硬件神经网络的发展。
下面手写了一套任意隐层数神经网络构建的C语言函数,能够方便移植到嵌入式设备中。该程序只是一个基于矩阵全连结形式的基础深度学习网络。运用的学习算法为随机梯度下降法,采用sigmoid函数作为激活函数。在少量样本拟合中表现不错。
/* 深度学习神经网络V1.0 made by xyt 2015/7/23 使用语言:C 本程序构建多层矩阵形神经网络多输入单输出 学习策略:随机梯度下降 激活函数:sigmoid 使用前必须用srand((unsigned)time(NULL))取随机映射初始值 */ #ifndef _DNN_H #define _DNN_H #include<stdio.h> #include<math.h> #include <stdlib.h> #include <time.h> #define DNN_VEC 8 //输入训练组组数 #define DNN_INUM 5 //输入维度 double dnn_sig(double in){ //sigmoid函数,此处不可变 return 1.0/(1.0+exp(-1.0*in)); } struct dnn_cell{ //神经元结构体 double w[DNN_INUM]; double wb; double in[DNN_INUM]; double out; double error; double v; void SetCell_Default(){ //默认初始化,权值初始化很小 int i; for(i=0;i<DNN_INUM;i++){ w[i]=0.000001; } wb=0.000001; v=0.001; } void SetCell_InitWeight(double Initial){ //权值统一权值初始化 int i; for(i=0;i<DNN_INUM;i++){ w[i]=Initial; } wb=Initial; v=0.001; } void SetCell_InitAll(double Initial,double InV){ //权值统一初始化,学习速率初始化 int i; for(i=0;i<DNN_INUM;i++){ w[i]=Initial; } wb=Initial; v=InV; } void SetCell_Precise(double *InW,double InWb,double InV){ //权值精确初始化,学习速率初始化 int i; for(i=0;i<DNN_INUM;i++){ w[i]=InW[i]; } wb=InWb; v=InV; } void SetIn(double *SIn){ //设定神经元输入 int i; for(i=0;i<DNN_INUM;i++){ in[i]=SIn[i]; } } double GetOut(){ //获取、设定神经元输出 int i; double sum=0; for(i=0;i<DNN_INUM;i++){ sum+=w[i]*in[i]; } sum+=wb; out=dnn_sig(sum); return out; } void UpdateWeight(){ //更新神经元权值 int i; for(i=0;i<DNN_INUM;i++){ w[i]-=v*error*out*(1-out)*in[i]; } wb=v*error*out*(1-out); } void SetError(double InErr){ //设定神经元误差传播值 error=InErr; } void SetSpeed(double InV){ //设定神经元学习速率 v=InV; } }; /* 获得前向传播得到的输出值,第一个参数为神经元结构体数组,第二个参数为神经网络 层数。具体排列为:前0~DNN_INUM神经元为第一层,后面每DNN_INUM个神经元为一层,依次 排列,直至最后一个输出神经元为单独一层,如果层数是4,DNN_INUM=5(5输入)则神经元 数量应为(4-1)*5+1=16个。*in参数为输入网络的具有DNN_INUM个数据的数组 */ double DNN_Cal(dnn_cell *incell,int deep,double *in) { double out=0; int dd=0,i,j,k,count=0; double tmp[DNN_INUM]; for(i=0;i<DNN_INUM;i++) tmp[i]=in[i]; for(j=0;j<deep-1;j++) { for(i=j*DNN_INUM;i<(j*DNN_INUM+DNN_INUM);i++) { incell[i].SetIn(tmp); incell[i].GetOut(); count++; } k=0; for(i=j*DNN_INUM;i<(j*DNN_INUM+DNN_INUM);i++) {tmp[k]=incell[i].out; k++;} } incell[count].SetIn(tmp); out=incell[count].GetOut(); return out; } /* 对输入矩阵训练,最后得到更新的神经网络,要求每组数据量限定为DNN_INUM数据组数限定为DNN_VEC 输入神经原组为按层排列,除了最后一层的节点数为一其他节点数都限定为输入向量DNN_INUM deep为网络层数至少2层,算上最后输出层,n为训练次数,expect为期望,返回训练后平均误差 */ double DNN_Train(dnn_cell *cell,int deep,double InMat[DNN_VEC][DNN_INUM],double *expect,int n) { double out,devi,sum; double de[DNN_VEC]; int co=n,kp=-1; int i,j,k,tt,l; for(i=0;i<DNN_VEC;i++) de[i]=9.9; while(co--){ kp=(int)(rand()*(double)(DNN_VEC)/RAND_MAX); out=DNN_Cal(cell,deep,InMat[kp]); devi=out-expect[kp]; de[kp]=devi; printf("%lf %lf %lf %d\n",fabs(de[0]),fabs(de[3]),fabs(de[7]),kp); tt=(deep-1)*DNN_INUM; cell[tt].error=devi; l=0; for(i=(deep-2)*DNN_INUM;i<tt;i++) {cell[i].error=cell[tt].error*cell[tt].out*(1-cell[tt].out)*cell[tt].w[l];l++;} for(j=deep-2;j>0;j--){ l=0; for(i=(j-1)*DNN_INUM;i<j*DNN_INUM;i++){ sum=0; for(k=j*DNN_INUM;k<(j+1)*DNN_INUM;k++){ sum+=cell[k].error*cell[k].out*(1-cell[k].out)*cell[k].w[l]; } cell[i].error=sum; l++; } } for(i=0;i<=(deep-1)*DNN_INUM;i++){ cell[i].UpdateWeight(); } //变学习速率,可以自行更改=============================== for(i=0;i<=(deep-1)*DNN_INUM;i++){ cell[i].SetSpeed(fabs(devi)); } //======================================================= } sum=0; for(i=0;i<DNN_VEC;i++) sum+=fabs(de[i]); return sum/DNN_VEC; } #endif具体调用示范如下:
#include<iostream> #include"dnn.h" using namespace std; int main() { srand( (unsigned)time(NULL) ); double expect[8]={0.23,0.23,0.23,0.23,0.83,0.83,0.83,0.83}; double in[8][5]={1,2,3,4,5, 1.1,2.1,3,3.9,5, 0.8,2.2,3,4.2,5, 0.9,2.1,3,4,5, 5,4,3,2,1, 4.9,4.1,2.9,2,1, 5,4,3.1,2,1, 5,4,2.9,2.1,1 }; dnn_cell a[16]; int i; for(i=0;i<16;i++) a[i].SetCell_InitAll(rand()*2.0/RAND_MAX-1,0.001); DNN_Train(a,4,in,expect,100000); double pp[5]; while(1){ for(i=0;i<5;i++) cin>>pp[i]; cout<<DNN_Cal(a,4,pp)<<endl; } }
版权声明:本文为博主原创文章,未经博主允许不得转载。
原文地址:http://blog.csdn.net/calcular/article/details/47031417