-
Notifications
You must be signed in to change notification settings - Fork 291
/
scikit-k-means.md
181 lines (115 loc) · 8.87 KB
/
scikit-k-means.md
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
# 用scikit-learn学习K-Means聚类
---
在[K-Means聚类算法原理](/ml/cluster/kmeans.md)中,我们对K-Means的原理做了总结,本文我们就来讨论用scikit-learn来学习K-Means聚类。重点讲述如何选择合适的k值。
# 1. K-Means类概述
在scikit-learn中,包括两个K-Means的算法,一个是传统的K-Means算法,对应的类是KMeans。另一个是基于采样的Mini Batch K-Means算法,对应的类是MiniBatchKMeans。一般来说,使用K-Means的算法调参是比较简单的。
用KMeans类的话,一般要注意的仅仅就是k值的选择,即参数n\_clusters;如果是用MiniBatchKMeans的话,也仅仅多了需要注意调参的参数batch\_size,即我们的Mini Batch的大小。
当然KMeans类和MiniBatchKMeans类可以选择的参数还有不少,但是大多不需要怎么去调参。下面我们就看看KMeans类和MiniBatchKMeans类的一些主要参数。
# 2. KMeans类主要参数
KMeans类的主要参数有:
1\) **n\_clusters**: 即我们的k值,一般需要多试一些值以获得较好的聚类效果。k值好坏的评估标准在下面会讲。
2)**max\_iter**: 最大的迭代次数,一般如果是凸数据集的话可以不管这个值,如果数据集不是凸的,可能很难收敛,此时可以指定最大的迭代次数让算法可以及时退出循环。
3)**n\_init:**用不同的初始化质心运行算法的次数。由于K-Means是结果受初始值影响的局部最优的迭代算法,因此需要多跑几次以选择一个较好的聚类效果,默认是10,一般不需要改。如果你的k值较大,则可以适当增大这个值。
4)**init:**即初始值选择的方式,可以为完全随机选择'random',优化过的'k-means++'或者自己指定初始化的k个质心。一般建议使用默认的'k-means++'。
5)**algorithm**:有“auto”, “full” or “elkan”三种选择。"full"就是我们传统的K-Means算法, “elkan”是我们原理篇讲的elkan K-Means算法。默认的"auto"则会根据数据值是否是稀疏的,来决定如何选择"full"和“elkan”。一般数据是稠密的,那么就是 “elkan”,否则就是"full"。一般来说建议直接用默认的"auto"
# 3. MiniBatchKMeans类主要参数
MiniBatchKMeans类的主要参数比KMeans类稍多,主要有:
1\) **n\_clusters**: 即我们的k值,和KMeans类的n\_clusters意义一样。
2)**max\_iter:**最大的迭代次数, 和KMeans类的max\_iter意义一样。
3)**n\_init:**用不同的初始化质心运行算法的次数。这里和KMeans类意义稍有不同,KMeans类里的n\_init是用同样的训练集数据来跑不同的初始化质心从而运行算法。而MiniBatchKMeans类的n\_init则是每次用不一样的采样数据集来跑不同的初始化质心运行算法。
4)**batch\_size**:即用来跑Mini Batch KMeans算法的采样集的大小,默认是100.如果发现数据集的类别较多或者噪音点较多,需要增加这个值以达到较好的聚类效果。
5)**init: **即初始值选择的方式,和KMeans类的init意义一样。
6)**init\_size:**用来做质心初始值候选的样本个数,默认是batch\_size的3倍,一般用默认值就可以了。
7)**reassignment\_ratio:**某个类别质心被重新赋值的最大次数比例,这个和max\_iter一样是为了控制算法运行时间的。这个比例是占样本总数的比例,乘以样本总数就得到了每个类别质心可以重新赋值的次数。如果取值较高的话算法收敛时间可能会增加,尤其是那些暂时拥有样本数较少的质心。默认是0.01。如果数据量不是超大的话,比如1w以下,建议使用默认值。如果数据量超过1w,类别又比较多,可能需要适当减少这个比例值。具体要根据训练集来决定。
8)**max\_no\_improvement:**即连续多少个Mini Batch没有改善聚类效果的话,就停止算法, 和reassignment\_ratio,max\_iter一样是为了控制算法运行时间的。默认是10.一般用默认值就足够了。
# 4. K值的评估标准
不像监督学习的分类问题和回归问题,我们的无监督聚类没有样本输出,也就没有比较直接的聚类评估方法。但是我们可以从簇内的稠密程度和簇间的离散程度来评估聚类的效果。常见的方法有轮廓系数Silhouette Coefficient和Calinski-Harabasz Index。个人比较喜欢Calinski-Harabasz Index,这个计算简单直接,得到的Calinski-Harabasz分数值s越大则聚类效果越好。
Calinski-Harabasz分数值s的数学计算公式是:$$s(k) = \frac{tr(B_k)}{tr(W_k)} \frac{m-k}{k-1}$$
其中m为训练集样本数,k为类别数。$$B_k$$为类别之间的协方差矩阵,$$W_k$$为类别内部数据的协方差矩阵。tr为矩阵的迹。
也就是说,类别内部数据的协方差越小越好,类别之间的协方差越大越好,这样的Calinski-Harabasz分数会高。在scikit-learn中, Calinski-Harabasz Index对应的方法是metrics.calinski\_harabaz\_score.
# 5. K-Means应用实例
下面用一个实例来讲解用KMeans类和MiniBatchKMeans类来聚类。我们观察在不同的k值下Calinski-Harabasz分数。
首先我们随机创建一些二维数据作为训练集,选择二维特征数据,主要是方便可视化。代码如下:
```
import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline
from sklearn.datasets.samples_generator import make_blobs
# X为样本特征,Y为样本簇类别, 共1000个样本,每个样本4个特征,共4个簇,簇中心在[-1,-1], [0,0],[1,1], [2,2], 簇方差分别为[0.4, 0.2, 0.2]
X, y = make_blobs(n_samples=1000, n_features=2, centers=[[-1,-1], [0,0], [1,1], [2,2]], cluster_std=[0.4, 0.2, 0.2, 0.2],
random_state =9)
plt.scatter(X[:, 0], X[:, 1], marker='o')
plt.show()
```
从输出图可以我们看看我们创建的数据如下:
![](http://images2015.cnblogs.com/blog/1042406/201612/1042406-20161213143259370-1291177869.png)
现在我们来用K-Means聚类方法来做聚类,首先选择k=2,代码如下:
```
from sklearn.cluster import KMeans
y_pred = KMeans(n_clusters=2, random_state=9).fit_predict(X)
plt.scatter(X[:, 0], X[:, 1], c=y_pred)
plt.show()
```
k=2聚类的效果图输出如下:
![](http://images2015.cnblogs.com/blog/1042406/201612/1042406-20161213143444854-1882584288.png)
现在我们来看看我们用Calinski-Harabasz Index评估的聚类分数:
```
from sklearn
import metrics
metrics.calinski_harabaz_score(X, y_pred)
```
输出如下:
```
3116.1706763322227
```
现在k=3来看看聚类效果,代码如下:
```
from sklearn.cluster import KMeans
y_pred = KMeans(n_clusters=3, random_state=9).fit_predict(X)
plt.scatter(X[:, 0], X[:, 1], c=y_pred)
plt.show()
```
k=3的聚类的效果图输出如下:
![](http://images2015.cnblogs.com/blog/1042406/201612/1042406-20161213144007542-1923430558.png)
现在我们来看看我们用Calinski-Harabaz Index评估的k=3时候聚类分数:
```
metrics.calinski_harabaz_score(X, y_pred)
```
输出如下:
```
2931.625030199556
```
可见此时k=3的聚类分数比k=2还差。
现在我们看看k=4时候的聚类效果:
```
from sklearn.cluster import KMeans
y_pred = KMeans(n_clusters=4, random_state=9).fit_predict(X)
plt.scatter(X[:, 0], X[:, 1], c=y_pred)
plt.show()
```
k=4的聚类的效果图输出如下:
![](http://images2015.cnblogs.com/blog/1042406/201612/1042406-20161213144309354-169800692.png)
现在我们来看看我们用Calinski-Harabasz Index评估的k=4时候聚类分数:
```
metrics.calinski_harabaz_score(X, y_pred)
```
输出如下:
```
5924.050613480169
```
可见k=4的聚类分数比k=2和k=3都要高,这也符合我们的预期,我们的随机数据集也就是4个簇。当特征维度大于2,我们无法直接可视化聚类效果来肉眼观察时,用Calinski-Harabaz Index评估是一个很实用的方法。
现在我们再看看用MiniBatchKMeans的效果,我们将batch size设置为200. 由于我们的4个簇都是凸的,所以其实batch size的值只要不是非常的小,对聚类的效果影响不大。
```
for index, k in enumerate((2,3,4,5)):
plt.subplot(2,2,index+1)
y_pred = MiniBatchKMeans(n_clusters=k, batch_size = 200, random_state=9).fit_predict(X)
score= metrics.calinski_harabaz_score(X, y_pred)
plt.scatter(X[:, 0], X[:, 1], c=y_pred)
plt.text(.99, .01, ('k=%d, score: %.2f' % (k,score)),
transform=plt.gca().transAxes, size=10,
horizontalalignment='right')
plt.show()
```
对于k=2,3,4,5对应的输出图为:
![](http://images2015.cnblogs.com/blog/1042406/201612/1042406-20161213154105901-1056813722.png)
可见使用MiniBatchKMeans的聚类效果也不错,当然由于使用Mini Batch的原因,同样是k=4最优,KMeans类的Calinski-Harabasz Index分数为5924.05,而MiniBatchKMeans的分数稍微低一些,为5921.45。这个差异损耗并不大。