【问题标题】:how to choose initial centroids for k-means clustering如何为 k-means 聚类选择初始质心
【发布时间】:2016-06-27 09:37:20
【问题描述】:

我正在努力在 Python 中实现 k-means 聚类。为数据集选择初始质心的好方法是什么?例如:我有以下数据集:

A,1,1
B,2,1
C,4,4
D,4,5

我需要创建两个不同的集群。我如何从质心开始?

【问题讨论】:

    标签: python cluster-analysis data-mining k-means centroid


    【解决方案1】:

    您可能想了解K-means++ 方法,因为它是选择初始质心的最流行、最简单且结果一致的方法之一。这里有paper。它的工作原理如下:

    • 从数据点中随机均匀选择一个中心。
    • 对于每个数据点x,计算D(x)x 与已选择的最近中心之间的距离。
    • 使用加权概率分布随机选择一个新数据点作为新中心,其中一个点x 的选择概率与D(x)^2 成正比(您可以为此使用scipy.stats.rv_discrete)。
    • 重复第 2 步和第 3 步,直到选择 k 中心。
    • 现在已经选择了初始中心,继续使用标准 k 均值聚类。

    【讨论】:

    • 从数据点中随机均匀地选择中心。我没有得到这部分。如何在我的数据集上选择它?
    • 如果你选择一个随机元素,你会根据一些分布对其进行采样。统一意味着您从一个集合中采样它,其中绘制每个元素的可能性相同。所以在你的情况下你可以做类似random.sample(set('ABCD'), 1)的事情。
    【解决方案2】:

    标准的初始化是简单的

    • 选择 k 个随机实例。

    还有更多方法(例如 k-means++),但它们通常不能始终如一地产生比此基线更好的结果。诸如 k-means++ 之类的方法有时效果很好,但也经常不会产生任何改进;但是需要花费大量额外的时间来计算。

    【讨论】:

      【解决方案3】:

      如果数据集像您的情况一样小,则 K- 表示本身会选择随机的不同簇,然后重复计算质心以优化质心和点之间的距离。

      但是,如果数据集很大,则可以使用称为 sharding 的简单方法代替集群的初始随机化,因为它可以减少优化集群所需的迭代次数,从而节省时间.

      你可以应用分片,这里有详细解释

      Sharding in k means

      【讨论】:

        【解决方案4】:

        一个标准的初始化是将每个数据点随机分配给集群,然后只计算这些随机集群的均值。

        另一种方法是只选择k 随机数据点,其中k 是集群的数量,这些是你的手段。这有时被称为 Forgy 方法。

        【讨论】:

        • 随机聚类分配实际上是最差方法之一。因为平均而言,所有中心都是相同的。
        猜你喜欢
        • 2020-02-21
        • 2019-05-14
        • 2017-05-13
        • 2018-09-19
        • 1970-01-01
        • 2021-11-25
        • 2018-02-14
        • 2018-04-27
        • 2022-01-23
        相关资源
        最近更新 更多