1 import tensorflow as tf 2 import numpy as np 3 import matplotlib.pyplot as plt 4 5 #创建一个input数据,-1到1之间300个数,[:,np.newaxis]把x_data变成300维的 6 x_data=np.linspace(-1,1,300)[:,np.newaxis] 7 #添加噪点,把他变得更像真实数据 8 noise=np.random.normal(0,0.05,x_data.shape) 9 #创建一个input的数据 10 y_data=np.square(x_data)-0.5+noise
1 #这里定义了一个添加神经层的方法 2 def add_layer(inputs,in_size,out_size,n_layer,activation_function=None): 3 #定义layer_name是为了在可视化中可以看到这个模块的名字,这里传入的 4 #n_layer代表我们现在正创建第几个神经层 5 layer_name=‘layer%s‘ % n_layer 6 #在这里是我们layer_name模块,可视化的时候我们可以看到结果 7 with tf.name_scope(layer_name): 8 with tf.name_scope(‘weights‘): 9 #这里定义的weights模块中,tf.random_normal方法从正态分布中输出随机值 10 #输出形状为[in_size,out_size]的矩阵,令其为初始值,名字为W 11 Weights=tf.Variable(tf.random_normal([in_size,out_size]),name=‘W‘) 12 #在这里将这个模块命名为layer_name+weights 13 #并用tf.summary.histogram输入到日志文件中 14 tf.summary.histogram(layer_name+‘/weights‘,Weights) 15 16 with tf.name_scope(‘biases‘): 17 #在这里另一个形状为[1,out_size]的矩阵为初始值 18 #矩阵的每一个元素均为初始值 19 biases=tf.Variable(tf.zeros([1,out_size])+0.1,name=‘b‘) 20 tf.summary.histogram(layer_name+‘/biases‘,biases) 21 22 with tf.name_scope(‘Wx_plus_b‘): 23 #这里定义的模块为Wx_plus_b 24 #之后加上biases时是矩阵的每一行都去加biases这个数组 25 Wx_plus_b=tf.matmul(inputs,Weights)+biases 26 #在这里如果没有激活函数则直接输出 27 #若有激活函数则用激活函数,然后给模块命名 28 if activation_function is None: 29 outputs=Wx_plus_b 30 else: 31 outputs=activation_function(Wx_plus_b) 32 tf.summary.histogram(layer_name+‘/outputs‘,outputs) 33 #sess=tf.Session() 34 return outputs
1 with tf.name_scope(‘inputs‘): 2 #这里用tf.placeholder定义一个参数,方便后续为其传值 3 xs=tf.placeholder(tf.float32,[None,1],name=‘x_input‘) 4 ys=tf.placeholder(tf.float32,[None,1],name=‘y_input‘)
1 #这里第一层输入参数inputs=xs,Weights是一个1*10的矩阵 2 #激活函数为relu 3 l1=add_layer(xs,1,10,n_layer=1,activation_function=tf.nn.relu) 4 #这里第二层输入参数inputs=l1,Weights是一个1*10的矩阵 5 #激活函数为空 6 prediction=add_layer(l1,10,1,n_layer=2,activation_function=None)
1 #这里定义了一个损失函数, 2 with tf.name_scope(‘loss‘): 3 loss=tf.reduce_mean(tf.reduce_sum(tf.square(ys-prediction),reduction_indices=[1])) 4 tf.summary.scalar(‘loss‘,loss) 5 #神经网络优化器,这里使用了梯度下降法 6 #使用优化器去减少每一步的误差 7 with tf.name_scope(‘train‘): 8 train_step=tf.train.GradientDescentOptimizer(0.1).minimize(loss)
1 sess=tf.Session() 2 merged= tf.summary.merge_all() 3 #这里将神经网络结构输入到一个文件中 4 writer=tf.summary.FileWriter("logs/",sess.graph)
1 sess=tf.Session() 2 merged= tf.summary.merge_all() 3 #这里将神经网络结构输入到一个文件中 4 writer=tf.summary.FileWriter("logs/",sess.graph) 5 6 7 sess.run(tf.global_variables_initializer()) 8 for i in range(1000): 9 #开始训练,设置迭代次数为1000次 10 #这里输入的x_data参数为一个300*1的矩阵 11 #先在l1网络层运算,将300*10的矩阵Wx_plus_b输入到激活函数Relu中,然后输出 12 #输出结果也为300*10的矩阵 13 #然后在输出层prediction 14 #输入为300*10的矩阵,Weights为10*1的矩阵 15 #相乘后为300*1的矩阵然后加上1*1的biases 16 #输出为300*91的矩阵 17 #然后与之前的y_data去做loss误差分析 18 #计算误差 19 sess.run(train_step,feed_dict={xs:x_data,ys:y_data}) 20 if i % 50==0: 21 #每迭代50次输出带日志文件,将所有日志文件都merged合并起来 22 result=sess.run(merged,feed_dict={xs:x_data,ys:y_data}) 23 writer.add_summary(result,i) 24
博文中的图都是tensorflow自带的可视化部件tensorboard展示出来的。我们用
writer=tf.summary.FileWriter("logs/",sess.graph)
这个语句将结构输出到文件中,打开命令行,敲上语句
tensorboard --logdir=C:\Users\yuanninesuns\Desktop\python\logs
将控制台输出的这个网址敲到浏览器上就能看到可视化内容。