📜  聚类算法-均值漂移算法

📅  最后修改于: 2020-12-10 05:40:42             🧑  作者: Mango


均值漂移算法简介

如前所述,它是在无监督学习中使用的另一种强大的聚类算法。与K均值聚类不同,它没有做任何假设;因此它是一种非参数算法。

均值漂移算法基本上是通过将数据点移向最高密度的数据点(即群集质心)来迭代地将数据点分配给群集。

K-Means算法和Mean-Shift算法之间的区别在于,后一种算法无需提前指定聚类数,因为聚类数将由算法的数据确定。

均值漂移算法的工作

通过以下步骤,我们可以了解Mean-Shift聚类算法的工作原理:

  • 步骤1-首先,从分配给它们自己的群集的数据点开始。

  • 步骤2-接下来,此算法将计算质心。

  • 步骤3-在此步骤中,新质心的位置将被更新。

  • 步骤4-现在,该过程将被迭代并移至更高密度的区域。

  • 步骤5-最后,一旦质心到达无法继续移动的位置,它将停止。

用Python实现

这是一个了解均值漂移算法工作原理的简单示例。在此示例中,我们将首先生成包含4个不同Blob的2D数据集,然后将应用Mean-Shift算法查看结果。

%matplotlib inline
import numpy as np
from sklearn.cluster import MeanShift
import matplotlib.pyplot as plt
from matplotlib import style
style.use("ggplot")
from sklearn.datasets.samples_generator import make_blobs
centers = [[3,3,3],[4,5,5],[3,10,10]]
X, _ = make_blobs(n_samples = 700, centers = centers, cluster_std = 0.5)
plt.scatter(X[:,0],X[:,1])
plt.show()

红点

ms = MeanShift()
ms.fit(X)
labels = ms.labels_
cluster_centers = ms.cluster_centers_
print(cluster_centers)
n_clusters_ = len(np.unique(labels))
print("Estimated clusters:", n_clusters_)
colors = 10*['r.','g.','b.','c.','k.','y.','m.']
for i in range(len(X)):
    plt.plot(X[i][0], X[i][1], colors[labels[i]], markersize = 3)
plt.scatter(cluster_centers[:,0],cluster_centers[:,1],
    marker=".",color='k', s=20, linewidths = 5, zorder=10)
plt.show()

输出

[[ 2.98462798 9.9733794 10.02629344]
[ 3.94758484 4.99122771 4.99349433]
[ 3.00788996 3.03851268 2.99183033]]
Estimated clusters: 3

混合点

的优点和缺点

好处

以下是Mean-Shift聚类算法的一些优点-

  • 它不需要像K-means或高斯混合中那样做出任何模型假设。

  • 它还可以对具有非凸形状的复杂簇进行建模。

  • 它只需要一个名为带宽的参数即可自动确定群集数。

  • 像K-means一样,没有局部最小值的问题。

  • 异常值不会产生任何问题。

缺点

以下是Mean-Shift聚类算法的一些缺点-

在集群数量突然变化的高维情况下,均值漂移算法不能很好地工作。

  • 我们无法直接控制集群的数量,但是在某些应用程序中,我们需要特定数量的集群。

  • 它无法区分有意义的模式和无意义的模式。