码迷,mamicode.com
首页 > 其他好文 > 详细

TensorFlow 实现线性回归

时间:2018-10-01 01:11:29      阅读:238      评论:0      收藏:0      [点我收藏+]

标签:迭代   none   red   count   优化   技术   glob   ntop   point   

 

1、生成高斯分布的随机数

导入numpy模块,通过numpy模块内的方法生成一组在方程

y = 2 * x + 3

周围小幅波动的随机坐标。代码如下:

 1 import numpy as np
 2 import matplotlib.pyplot as plot
 3 
 4 
 5 def getRandomPoints(count):
 6     xList = []
 7     yList = []
 8     for i in range(count):
 9         x = np.random.normal(0, 0.5)
10         y = 2 * x + 3 + np.random.normal(0, 0.3)
11         xList.append(x)
12         yList.append(y)
13     return xList, yList
14 
15 
16 if __name__ == __main__:
17     X, Y = getRandomPoints(1000)
18     plot.scatter(X, Y)
19     plot.show()

运行上述代码,输出图形如下:

技术分享图片

 

2、采用TensorFlow来获取上述方程的系数

  首先搭建基本的预估模型y = w * x + b,然后再采用梯度下降法进行训练,通过最小化损失函数的方法进行优化,最终训练得出方程的系数。

  在下面的例子中,梯度下降法的学习率为0.2,训练迭代次数为100次。

 1 def train(x, y):
 2     # 生成随机系数
 3     w = tf.Variable(tf.random_uniform([1], -1, 1))
 4     # 生成随机截距
 5     b = tf.Variable(tf.random_uniform([1], -1, 1))
 6     # 预估值
 7     preY = w * x + b
 8 
 9     # 损失值:预估值与实际值之间的均方差
10     loss = tf.reduce_mean(tf.square(preY - y))
11     # 优化器:梯度下降法,学习率为0.2
12     optimizer = tf.train.GradientDescentOptimizer(0.2)
13     # 训练:最小化损失函数
14     trainer = optimizer.minimize(loss)
15 
16     with tf.Session() as sess:
17         sess.run(tf.global_variables_initializer())
18         # 打印初始随机系数
19         print(init w:, sess.run(w), b:, sess.run(b))
20         # 先训练个100次:
21         for i in range(100):
22             sess.run(trainer)
23             # 每10次打印下系数
24             if i % 10 == 9:
25                 print(w:, sess.run(w), b:, sess.run(b))
26 
27 
28 if __name__ == __main__:
29     X, Y = getRandomPoints(1000)
30     train(X, Y)

  运行上面的代码,某次的最终结果为:

w = 1.9738449
b = 3.0027733

仅100次的训练迭代,得出的结果已十分接近方程的实际系数。

  某次模拟训练中的输出结果如下:

init w: [-0.6468966] b: [0.52244043]
w: [1.0336646] b: [2.9878206]
w: [1.636582] b: [3.0026987]
w: [1.8528996] b: [3.0027785]
w: [1.930511] b: [3.0027752]
w: [1.9583567] b: [3.0027738]
w: [1.9683474] b: [3.0027735]
w: [1.9719319] b: [3.0027733]
w: [1.9732181] b: [3.0027733]
w: [1.9736794] b: [3.0027733]
w: [1.9738449] b: [3.0027733]

 

3、完整代码和结果

 完整测试代码:

技术分享图片
 1 import numpy as np
 2 import matplotlib.pyplot as plot
 3 import tensorflow as tf
 4 
 5 
 6 def getRandomPoints(count, xscale=0.5, yscale=0.3):
 7     xList = []
 8     yList = []
 9     for i in range(count):
10         x = np.random.normal(0, xscale)
11         y = 2 * x + 3 + np.random.normal(0, yscale)
12         xList.append(x)
13         yList.append(y)
14     return xList, yList
15 
16 
17 def train(x, y, learnrate=0.2, cycle=100):
18     # 生成随机系数
19     w = tf.Variable(tf.random_uniform([1], -1, 1))
20     # 生成随机截距
21     b = tf.Variable(tf.random_uniform([1], -1, 1))
22     # 预估值
23     preY = w * x + b
24 
25     # 损失值:预估值与实际值之间的均方差
26     loss = tf.reduce_mean(tf.square(preY - y))
27     # 优化器:梯度下降法
28     optimizer = tf.train.GradientDescentOptimizer(learnrate)
29     # 训练:最小化损失函数
30     trainer = optimizer.minimize(loss)
31 
32     with tf.Session() as sess:
33         sess.run(tf.global_variables_initializer())
34         # 打印初始随机系数
35         print(init w:, sess.run(w), b:, sess.run(b))
36         for i in range(cycle):
37             sess.run(trainer)
38             # 每10次打印下系数
39             if i % 10 == 9:
40                 print(w:, sess.run(w), b:, sess.run(b))
41         return sess.run(w), sess.run(b)
42 
43 
44 if __name__ == __main__:
45     X, Y = getRandomPoints(1000)
46     w, b = train(X, Y)
47     plot.scatter(X, Y)
48     plot.plot(X, w * X + b, c=r)
49     plot.show()
View Code

  最终效果图如下,蓝色为高斯随机分布数据,红色为最终得出的直线:

技术分享图片

 

 

本文地址:https://www.cnblogs.com/laishenghao/p/9571343.html

 

TensorFlow 实现线性回归

标签:迭代   none   red   count   优化   技术   glob   ntop   point   

原文地址:https://www.cnblogs.com/laishenghao/p/9571343.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!