码迷,mamicode.com
首页 > 其他好文 > 详细

tensorflow (七) k-means

时间:2018-10-17 12:12:46      阅读:187      评论:0      收藏:0      [点我收藏+]

标签:port   turn   dice   neu   class   rdp   info   red   初始   

tensorflow基础暂不介绍

Python 相关库的安装

在进入正式聚类实验之前,我们还需要配置计算及画图需要用到相关支持包。
安装 seaborn:
pip install seaborn

安装 matplotlib:

pip install matplotlib

安装 python3-tk:

sudo apt-get install python3-tk -y

K-Means 聚类算法步简介

K-Means 算法是最为经典的基于划分的聚类方法,是十大经典数据挖掘算法之一。K-Means 算法的基本思想是:以空间中 k 个点为形心,对于最靠近他们的对象归类。通过迭代的方法,逐次更新各簇的形心的值,直至得到最好的聚类结果。其中,形心可以是实际的点也可以是虚拟点。
技术分享图片
以上框图是最基本的 k-Menas 算法,您也可以自行学习如何改进此算法。
 

测试数据准备

本教程对于随机生成200个数据进行 K-Means 聚类,首先我们先来了解一些生成的测试数据的形式
生成数据代码:
#-*- coding:utf-8 -*-
# -*- coding: utf-8 -*-
import matplotlib
matplotlib.use(Agg)
import numpy as np
from numpy.linalg import cholesky
import matplotlib.pyplot as plt
############生成随机测试数据###############
sampleNo = 200;#生成数据数量
mu =3
# 二维正态分布
mu = np.array([[1, 5]])
Sigma = np.array([[1, 0.5], [1.5, 3]])
R = cholesky(Sigma)
srcdata= np.dot(np.random.randn(sampleNo, 2), R) + mu
plt.plot(srcdata[:,0],srcdata[:,1],bo)
plt.savefig(data0.png)
您可以查看随机测试数据生成结果,数据为二维正态分布,形如
执行如上程序,结果:

技术分享图片

K-Means 聚类算法的实现

代码:

# -*- coding: utf-8 -*-
import matplotlib
matplotlib.use(Agg)
import numpy as np
from numpy.linalg import cholesky
import matplotlib.pyplot as plt
import seaborn as sns
import pandas as pd
import tensorflow as tf
from random import choice, shuffle
from numpy import array
def KMeansCluster(vectors, noofclusters):
    noofclusters = int(noofclusters)
    assert noofclusters < len(vectors)
    #找出每个向量的维度
    dim = len(vectors[0])
    #辅助随机地从可得的向量中选取形心
    vector_indices = list(range(len(vectors)))
    shuffle(vector_indices)
    #计算图
    graph = tf.Graph()
    with graph.as_default():
        #计算的会话
        sess = tf.Session()
        ########从现有的点集合中抽取出一部分作为默认的中心点########
        centroids = [tf.Variable((vectors[vector_indices[i]]))
                     for i in range(noofclusters)]
        centroid_value = tf.placeholder("float64", [dim])
        cent_assigns = []
        for centroid in centroids:
            cent_assigns.append(tf.assign(centroid, centroid_value))
        assignments = [tf.Variable(0) for i in range(len(vectors))]
        assignment_value = tf.placeholder("int32")
        cluster_assigns = []
        for assignment in assignments:
            cluster_assigns.append(tf.assign(assignment,
                                             assignment_value))
        #############下面创建用于计算平均值的操作节点#############
        mean_input = tf.placeholder("float", [None, dim])
        mean_op = tf.reduce_mean(mean_input, 0)
        #################用于计算欧氏距离的节点#################
        v1 = tf.placeholder("float", [dim])
        v2 = tf.placeholder("float", [dim])
        euclid_dist = tf.sqrt(tf.reduce_sum(tf.pow(tf.subtract(
            v1, v2), 2)))
        centroid_distances = tf.placeholder("float", [noofclusters])
        cluster_assignment = tf.argmin(centroid_distances, 0)
        ###################初始化所有的状态值###################
        init_op = tf.global_variables_initializer()
        sess.run(init_op)
        #######################集群遍历#######################
        #接下来在 K-Means 聚类迭代中使用最大期望算法,简单起见最大迭代次数直接设置为30次
        noofiterations = 30
        for iteration_n in range(noofiterations):

            #####################期望步骤#####################
            #首先遍历所有的向量
            for vector_n in range(len(vectors)):
                vect = vectors[vector_n]
                #计算给定向量与分配的形心之间的欧氏距离
                distances = [sess.run(euclid_dist, feed_dict={
                    v1: vect, v2: sess.run(centroid)})
                             for centroid in centroids]
                #下面可以使用集群分配操作,将算出的距离当做输入
                assignment = sess.run(cluster_assignment, feed_dict = {
                    centroid_distances: distances})
                #接下来为每个向量分配合适的值
                sess.run(cluster_assigns[vector_n], feed_dict={
                    assignment_value: assignment})

            ####################最大化的步骤####################
            #基于上述的期望步骤,计算每个新的形心的距离从而使集群内的平方和最小
            for cluster_n in range(noofclusters):
                #收集所有分配给该集群的向量
                assigned_vects = [vectors[i] for i in range(len(vectors))
                                  if sess.run(assignments[i]) == cluster_n]
                #计算新的集群形心
                new_location = sess.run(mean_op, feed_dict={
                    mean_input: array(assigned_vects)})
                #为每个向量分配合适的形心
                sess.run(cent_assigns[cluster_n], feed_dict={
                    centroid_value: new_location})

        #返回形心和分组
        centroids = sess.run(centroids)
        assignments = sess.run(assignments)
        return centroids, assignments
############生成随机测试数据###############
sampleNo = 200;#生成数据数量
mu =3
# 数据遵从二维正态分布
mu = np.array([[1, 5]])
Sigma = np.array([[1, 0.5], [1.5, 3]])
R = cholesky(Sigma)
srcdata= np.dot(np.random.randn(sampleNo, 2), R) + mu
plt.plot(srcdata[:,0],srcdata[:,1],bo)
plt.savefig(data.png)
############ kmeans 算法计算###############
k=4
center,result=KMeansCluster(srcdata,k)
print (center)
############利用 seaborn 画图###############

res={"x":[],"y":[],"kmeans_res":[]}
for i in range(len(result)):
    res["x"].append(srcdata[i][0])
    res["y"].append(srcdata[i][1])
    res["kmeans_res"].append(result[i])
pd_res=pd.DataFrame(res)
sns.lmplot("x","y",data=pd_res,fit_reg=False,size=5,hue="kmeans_res")
plt.show()
plt.savefig(kmeans.png)

 

您可以查看本次聚类实验中随机测试数据生成结果,形如

技术分享图片

以及聚类结果,形如
技术分享图片
聚类中心会在终端输出,形如

技术分享图片

 

 

 

 

 

参考:https://codesachin.wordpress.com/2015/11/14/k-means-clustering-with-tensorflow/

 

 

tensorflow (七) k-means

标签:port   turn   dice   neu   class   rdp   info   red   初始   

原文地址:https://www.cnblogs.com/fclbky/p/9802938.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!