码迷,mamicode.com
首页 > 其他好文 > 详细

Tensorflow学习教程------tensorboard网络运行和可视化

时间:2017-10-09 15:27:10      阅读:360      评论:0      收藏:0      [点我收藏+]

标签:softmax   cal   bat   name   esc   variables   image   col   log   

tensorboard可以将训练过程中的一些参数可视化,比如我们最关注的loss值和accuracy值,简单来说就是把这些值的变化记录在日志里,然后将日志里的这些数据可视化。

首先运行训练代码

#coding:utf-8
import  tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data

#载入数据集
mnist = input_data.read_data_sets("MNIST_data", one_hot=True)
#每个批次的大小
batch_size = 100
#计算一共有多少个批次
n_batch =  mnist.train.num_examples // batch_size

#参数概要 传入一个参数可以计算这个参数的各个相关值 
def variable_summaries(var):
    with tf.name_scope(summaries):
        mean = tf.reduce_mean(var)
        tf.summary.scalar(mean, mean)#平均值
        with tf.name_scope(stddev):
            stddev = tf.sqrt(tf.reduce_mean(tf.square(var - mean)))
        tf.summary.scalar(stddev, stddev)#标准差
        tf.summary.scalar(max, tf.reduce_max(var))#最大值
        tf.summary.scalar(min, tf.reduce_min(var))#最小值
        tf.summary.histogram(histogram, var)#直方图         

with tf.name_scope(input):
#定义两个placeholder
    x = tf.placeholder(tf.float32, [None,784],name=x-input) #输入图像
    y = tf.placeholder(tf.float32, [None,10],name=y-input) #输入标签
#创建一个简单的神经网络 784个像素点对应784个数  因此输入层是784个神经元 输出层是10个神经元 不含隐层 
#最后准确率在92%左右
with tf.name_scope(layer):
    with tf.name_scope(wights):
        W = tf.Variable(tf.zeros([784,10]),name = W) #生成784行 10列的全0矩阵
        variable_summaries(W)
    with tf.name_scope(biases):
        b = tf.Variable(tf.zeros([1,10]),name=b) 
        variable_summaries(b)
    with tf.name_scope(softmax):
        prediction = tf.nn.softmax(tf.matmul(x,W)+b)

#二次代价函数
#loss = tf.reduce_mean(tf.square(y-prediction))
#交叉熵损失
with tf.name_scope(loss):
    loss =tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels =y,logits = prediction))
    tf.summary.scalar(loss,loss)
#使用梯度下降法
#train_step = tf.train.GradientDescentOptimizer(0.2).minimize(loss)
train_step = tf.train.AdamOptimizer(1e-3).minimize(loss) #学习率一般设置比较小 收敛速度快

#初始化变量
init = tf.global_variables_initializer()

#结果存放在布尔型列表中
#argmax能给出某个tensor对象在某一维上的其数据最大值所在的索引值
with tf.name_scope(accuracy):
    with tf.name_scope(correct_prediction):
        correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(prediction,1))
    with tf.name_scope(accuracy):
        accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32))
        tf.summary.scalar(accuracy,accuracy)
#合并所有的summary
merged = tf.summary.merge_all()
with tf.Session() as sess:
    sess.run(init)
    writer = tf.summary.FileWriter(/home/xxx/logs/,sess.graph) #定义记录日志的位置
    for epoch in range(50): 
        for batch in range(n_batch): #
            batch_xs,batch_ys = mnist.train.next_batch(batch_size)
            summary,_ = sess.run([merged,train_step],feed_dict={x:batch_xs,y:batch_ys})
        writer.add_summary(summary,epoch) #将summary epoch 写入到writer
        acc = sess.run(accuracy,feed_dict={x:mnist.test.images, y:mnist.test.labels}) 
        print ("Iter " + str(epoch) + ",Testing Accuracy " + str(acc)) 

注意我将训练日志保存在 /home/xxx/logs/ 路径下,打开终端,输入以下命令 tensorboard --logdir=/home/xxx/logs/ 如下图所示

技术分享

在浏览器中输入127.0.0.1:6006,可以看到可视化效果,如loss和accuracy的变化折线图

技术分享

 

Tensorflow学习教程------tensorboard网络运行和可视化

标签:softmax   cal   bat   name   esc   variables   image   col   log   

原文地址:http://www.cnblogs.com/cnugis/p/7641133.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!