python代码实现kmeans对鸢尾花聚类

发布于:2024-05-02 ⋅ 阅读:(23) ⋅ 点赞:(0)

导入第三方库和模型

from sklearn import datasets
import numpy as np
import matplotlib.pyplot as plt
from sklearn.cluster import KMeans

2、创建画图函数

def draw_result(train_x, labels, cents, title):
    n_clusters = np.unique(labels).shape[0]#获取类别个数
    color = ["red", "orange", "yellow"]
    plt.figure()#创建一个新的图形窗口并开始绘图
    plt.title(title)
    for i in range(n_clusters):#range(3)=range(0,3):0,1,2
        current_data = train_x[labels == i]#把标签一致得所有样本点全拿出来
        plt.scatter(current_data[:, 0], current_data[:,1], c=color[i])#只显示鸢尾花第一个指标和第二个指标的值
        plt.scatter(cents[i, 0], cents[i, 1], c="blue", marker="*", s=100)#显示中心的的样本
    return plt
""" 画出聚类后的图像
labels: 聚类后的label, 从0开始的数字
cents: 质心坐标
n_cluster: 聚类后簇的数量
color: 每一簇的颜色
"""

3、主函数调用kmeans

if __name__ == '__main__':
    iris = datasets.load_iris()#加载鸢尾花数据集
    iris_x = iris.data#数据部分,不带标签
    clf = KMeans(n_clusters=3, max_iter=10,n_init=10, init="k-means++",
    algorithm="full", tol=1e-4,n_jobs= -1,random_state=1)#创建聚类模型
    clf.fit(iris_x)#把样本150数据全部应用于聚类函数
    print("SSE = {0}".format(clf.inertia_))
    #inertia_ 属性表示聚类效果的评估指标,也称为簇内离差平方和(within-cluster sum of squares, WCSS)。它表示每个样本点到其所属簇的质心的距离的总和,该值越小表示样本点越接近于自己的簇中心,聚类效果越好。
    draw_result(iris_x, clf.labels_, clf.cluster_centers_, "kmeans").show()#plt.show() 显示图形
    '''
    iris_x:样本数据
    clf.labels_聚类聚出来的标签
    clf.cluster_centers_聚类出来的中心点
    "kmeans" 画图的标题
    ''' 

在这里插入图片描述

4、算法优缺点

优点

简洁明了,计算复杂度低。 K-means 的原理非常容易理解,整个计算过程与数学推理也不是很困 难。
收敛速度较快。通常经过几个轮次的迭代之后就可以获得还不错的效果。

缺点

结果不稳定。 由于初始值随机设定,以及数据的分布情况,每次学习的结果往往会有一些差异。 无法解决样本不均衡的问题。
对于类别数据量差距较大的情况无法进行判断。 容易收敛到局部最优解。 在局部最优解的时候,迭代无法引起中心点的变化,迭代将结束。
受噪声影响较大。 如果存在一些噪声数据,会影响均值的计算,进而引起聚类的效果偏差。