标签:简单的 启动服务 font 二维 特殊 global 创建 端口 float
TensorFlow最初是由Google Brain 团队(隶属于Google的Al部门)中的研究人员和工程师开发的,可为机器学习和深度学习提供强力支持。
一、TensorFlow的基础概念
1.1 TensorFlow计算模型—计算图
TensorFlow是一个通过计算图的形式表述计算的编程系统,每一个计算都是计算图上的一个节点,节点之间的边描述了计算之间的关系。
TensorFlow = Tensor + Flow
Tensor张量
数据结构:多维数组
Flow流
计算模型:张量之间通过计算而转换的过程
TensorFlow有两种边:
1.2Tensor 张量
在TensorFlow中,所有的数据都通过张量的形式来表示
从功能的角度,张量可以简单理解为多维数组
零阶张量表示标量(scalar),也就是一个数;
一阶张量为向量(vector),也就是一维数组;
n阶张量可以理解为一个n维数组;
张量并没有真正保存数字,它保存的是计算过程
Tensor("Add:0",shape=(),dtype=float32)
名字(name)
“node:src_output”:node节点名称,src_output来自节点的第几个输出
形状(shape)
张量的维度信息,如:shape=() 表示是标量
类型(type)
每一个张量会有一个唯一的类型
TensorFlow会对参与运算的所有张量进行类型的检查,发现类型不匹配时会报错
TensorFlow支持14种不同的类型
实数 tf.float32,tf.float64
整数tf.int8,tf.int16,tf.int32,tf.int64,tf.uint8
布尔tf.bool
复数 tf.complex64,tf.complex128
默认类型:
不带小数点的数会被默认为int32
带小数点的会被默认为float32
二、TensorFlow的基本运算
2.1Session会话
会话拥有并管理TensorFlow程序运行时的所有资源,当所有计算完成之后需要关闭会话帮助系统回收资源。
(1)会话的模式1
#定义计算图 tens1=tf.constant([1,2,3]) #创建一个会话 sess = tf.Session() #使用这个创建好的会话来得到关心的运算的结果。比如可以调用sess.run(result) #来得到张量result的收值 print(sess.run(tens1)) #关闭会话使得本次运行中使用到的资源可以被释放 sess.close()
(2)会话的模式2
node1=tf.constant(3.0,tf.float32,name="node1") node3=tf.constant(4.0,tf.float32,name="node2") result = tf.add(node1,node2) #创建一个会话,并通过Python中的上下文管理器来管理这个会话 with tf.Session()as sess: #使用这创建好的会话来计算关心的结果 print(sess.run(result)) #不需要调用 Session.close()函数来关闭会话 #当上下文退出时会话关闭和资源释放也自动完成了
(3)指定默认的会话
TensorFlow不会自动生成默认的会话,需要手动指定
当默认的会话被指定之后可以通过tf.Tensor.eval函数来计算一个张量的取值
node1= tf.constant(3.0,tf.float32,name="node1") node2= tf.constant(4.0,tf.float32,name="node2") result = tf.add(node1,node2) sess= tf.Session() with sess.as_default(): print(result.eval())
2.2常量与变量
常量:在运行过程中值不会改变的单元,在TensorFlow中无须进行初始化操作
创建语句:
constant_name = tf.constant(value)
变量:在运行过程中值会改变的单元,在TensorFlow中须进行初始化操作
创建语句:
name_variable = tf.Variable(value,name) #注意“V”是大写
个别变量初始化:
init_op = name_variable.initializer()
所有变量初始化:
init_op= tf.global_variables_initializer()
例程2.2
node1= tf.Variable(3.e,tf.float32,name="node1") node2 = tf.Variable(4.e,tf.float32,name="node2") result = tf.add(node1,node2,name=‘add‘) sess = tf.Session() #变量初始化 init = tf.global_variables_initializer() sess.run(init) print(sess.run((result))
2.3变量赋值
与传统编程语言不同,TensorFlow中的变量定义后,一般无需人工赋值,系统会根据算法模型,训练优化过程中自动调整变量对应的数值。如果对于某变量不想参与更新,需在定义时加上“trainable=False”,如:
epoch =tf.Variable(0,name=‘epoch",trainable=False)
特殊情况需要人工更新的,可用变量赋值语句
变量更新语句:
update_op=tf.assign(variable_to_be_updated,new_value)
例程2.3
#通过变量赋值输出1、2、3...10 import tensorflow as tf value = tf.Variable(e,name="value") one=tf.constant(1) new_value = tf.add(value,one) update_value = tf.assign(value,new_value) init= tf.global_variables_initializer() with tf.Session() as sess: sess.run(init) for _ in range(10): sess.run(update_value) print(sess.run(value))
2.4占位符
TensorFlow中的Variable变量类型,在定义时需要初始化,但有些变量定义时并不知道其数值,只有当真正开始运行程序时,才由外部输入,比如训练数据,这时候需要用到占位符。
tf.placeholder占位符,是TensorFlow中特有的一种数据结构,类似动态变量,函数的参数、或者C语言或者Python语言中格式化输出时的“%”占位符。
TensorFlow占位符Placeholder,先定义一种数据,其参数为数据的Type和Shape
占位符Placeholder的函数接口如下:
tf.placeholder(dtype,shape=None,name=None)
如:x=tf.placeholder(tf.float32,[2,3],name=‘tx‘) #此代码生成一个2x3的二维数纽,矩阵中每个元素的类型都是tf.fLoat32,内部对应的符号名称是tx
2.4.1Feed提交数据
如果构建了一个包含placeholder操作的计算图,当在session中调用run方法时,placeholder占用的变量必须通过feed_dict参数传递进去,否则报错。
例程2.4.1
import tensorflow as tf a= tf.placeholder(tf.float32,name=‘a‘) b=tf.placeholder(tf.float32,name=‘b‘) c = tf.multiply(a,b,name=‘c‘) init = tf.global_variables_initializer() with tf.Session() as sess: sess.run(init) #通过feed_dict的参数传值,按字典格式 result = sess.run(c, feed_dict={a:8.0, b:3.5}) print(result) #结果输出28.0
例程2.4.2 可以一次返回多个值分别赋给多个变量
import tensorflow as tf a=tf.placeholder(tf.float32,name=‘a‘) b= tf.placeholder(tf.float32,name=‘b‘) c= tf.multiply(a,b,name=‘c‘) d =tf.subtract(a,b,name=‘d‘) init= tf.global_variables_initializer() with tf.Session() as sess: sess.run(init) #返回的两个做分别赋给两个变量 rc,rd=sess.run([c,d],feed_dict={a:[8.0,2.0,3.5],b:[1.5,2.0,4.]}) print("value of c=",rc,"value of d=",rd) #输出结果 value of c=[ 12. 4. 14.]value of d=[6.5 0. -0.5]
三、TensorFlow可视化初步
TensorBoard是TensorFlow的可视化工具,原理是通过TensorFlow程序运行过程中输出的日志文件可视化TensorFlow程序的运行状态。另外,TensorBoard和TensorFlow程序跑在不同的进程中。
案例1:在TensorBoard中查看图结构
import tensorflow as tf #清除default_graph和不断增加的节点 tf.reset_default_graph() #Logdir改为自己电脑上的合适路径 logdir=‘D:/1og‘ #定义一个简单的计算图,实现向量加法的操作 input1 = tf.constant([1.0,2.0,3.0],name="input1") input2= tf.Variable(tf.random_uniform([3]),name="input2") output = tf.add_n([input1,input2],name="add") #生成一个写日志的writer,并将当前的TensorFLow计算图写入日志。 writer = tf.summary.FileWriter(logdir,tf.get_default_graph()) writer.close()
程序运行后,会在指定目录下创建一个日志文件,接着需要启动TensorBoard查看。
在Anaconda Prompt中先进入日志存放的目录,再运行TensorBoard,并将日志的地址指向程序日志输出的地址
命令:tensorboard --logdir=/path/log
启动服务的端口默认为6006;使用一port参数可以改编启动服务的端口
回车后会出现一个网址,用浏览器打开,即可显示上述案例所生成的计算图。
标签:简单的 启动服务 font 二维 特殊 global 创建 端口 float
原文地址:https://www.cnblogs.com/HuangYJ/p/11623507.html