赞
踩
(1)任意选择k个对象作为初始的簇中心;(2)根据距离(欧式距离)中心最近原则,将其他对象分配到相应类中;(3) 更新簇的质心,即重新计算每个簇中对象的平均值;(4) 重新分配所有对象,直到质心不再发生变化
- import time
- import pandas as pd
- from sklearn import preprocessing
-
- data = pd.read_csv("/.../iris.csv")
- iris = data.iloc[:,:4] # 获取iris数据
- target = data.iloc[:,4:] # 单独存放species属性
-
- # 预处理
- # 将species转换成数字
- class_encoder = preprocessing.LabelEncoder()
- target['species'] = class_encoder.fit_transform(target['species'].values)
- # K-means
- from sklearn.cluster import KMeans
- # 将数据聚为3类
- kms = KMeans(n_clusters = 3)
- # 训练数据
- kms.fit(iris)
- # 预测结果
- kms_label = kms.labels_
- kms_label = pd.DataFrame(kms_label,columns=["聚类结果"])
- kms_iris = iris.copy()
- kms_iris["聚类结果"] = kms_label
- kms_iris
- # 肘方法确定参数
- SSE_list = []
- for n in range(1,10):
- kms = KMeans(n_clusters=n)
- kms.fit(iris)
- SSE_list.append(kms.inertia_)
-
- plt.xlabel = "n_clusters"
- plt.ylabel = "SSE"
- plt.plot(range(1,10),SSE_list,"o-")
- kms_cc = pd.DataFrame(kms.cluster_centers_,
- index=[0,1,2],
- columns=['sepal_length','sepal_width','petal_length','petal_width'])
- kms_iris = pd.concat([kms_iris,kms_cc])
- fig = plt.figure()
- ax = fig.add_subplot()
- ax.scatter(x=kms_iris.iloc[:150,1:2],y=kms_iris.iloc[:150,3:4],c=kms.labels_,label=[1,2,0])
- ax.scatter(x=kms_iris.iloc[150:,1:2],y=kms_iris.iloc[150:,3:4],c=[0,1,2],marker='*')
- plt.show()
不采用簇中对象的平均值作为参照点, 而是选用簇中位置最中心的对象, 即中心点作为参照点
反复地用非代表对象替代代表对象,以改进聚类的质量
随机地抽取多个样本,针对每一个样本寻找代表对象medoids,并进行全部数据对象的聚类,然后从中选择质量最好的聚类结果作为最终结果,并分配其余对象。
分割最不相似的两个部分,从所有的对象归属在唯一的一个簇中开始,逐层向下分解,直到每一个对象形成一个簇。
(1)首先将每一个对象独立地作为一个簇。 (2)然后根据各个簇之间的相似程度(距离)逐层向上聚结,形成越来越大的簇。 (3)最终形成包含全部对象的唯一的一个簇,也可以在满足一定的聚结终止条件时终止聚结。
- # AGNES聚类
- from sklearn.cluster import AgglomerativeClustering
- # 将数据聚为3类
- ac = AgglomerativeClustering(linkage='complete',n_clusters=3)
- # 训练数据
- ac.fit(iris)
- # 得到结果
- ac_label = ac.labels_
- ac_label = pd.DataFrame(ac_label,columns=["聚类结果"])
- ac_iris = iris.copy()
- ac_iris["聚类结果"] = ac_label
- # 数据匹配
- ac_iris["聚类结果"].loc[ac_iris["聚类结果"]==2] = 'x'
- ac_iris["聚类结果"].loc[ac_iris["聚类结果"]==0] = 2
- ac_iris["聚类结果"].loc[ac_iris["聚类结果"]==1] = 0
- ac_iris["聚类结果"].loc[ac_iris["聚类结果"]=='x'] = 1
- ac_iris

- # 层次聚类树
- from scipy.cluster import hierarchy
- plt.figure(figsize=(15,5))
- # 生成聚类树
- Z = hierarchy.linkage(ac_iris,method='weighted',metric='euclidean')
- hierarchy.dendrogram(Z)
- plt.show()
假设在给定的一个簇中,有n个m维的数据点,
该簇的聚类特征向量CF = (N, LS, SS):(1) N是该类中的数据点数目;(2) LS是该n个数据点的线性和,即 ;(3) SS是该n个数据点的平方和,即
关键概念:核心对象、直接密度可达、密度可达、密度相连、簇与噪声
- # DBSCAN
- from sklearn.cluster import DBSCAN
- # 设置邻域半径为0.81,MinPts为10
- db = DBSCAN(eps=0.81, min_samples=10)
- # 训练数据
- db.fit(iris)
- # 得到结果
- db_label = db.labels_
- db_label = pd.DataFrame(db_label,columns=["聚类结果"])
- db_iris = iris.copy()
- db_iris["聚类结果"] = db_label
- db_iris
由于聚类是无监督学习,聚类结果可能与本身的标签不匹配,所以还需要做数据匹配。下图还没有做数据匹配,可以通过颜色看出聚类结果与本身标签并不对应。
- # 确定最佳参数
- db_list = []
- for each_eps in np.arange(0.01,10,0.10):
- for each_minpts in range(5,11):
- db = DBSCAN(eps=each_eps,min_samples=each_minpts)
- # 训练模型
- db.fit(iris)
- db_label = db.labels_
- db_label = pd.DataFrame(db_label,columns=["聚类结果"])
- n = pd.DataFrame(db.labels_).value_counts().size-1 # 簇数
- db_iris = iris.copy()
- db_iris["聚类结果"] = db_label
- try:
- score = silhouette_score(db_iris,db.labels_) # 轮廓系数
- db_list.append({'eps':each_eps,'min_samples':each_minpts,
- 'n_clusters':n,'轮廓系数':score})
- except:
- continue

所以设置邻域半径为0.81,MinPts为10
优先选择最小的值密度可达的对象, 以便高密度的聚类能被首先完成
下图是已经做过数据匹配之后的结果,p4是原分类结果
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。