【问题标题】:Running KMeans clustering in PySpark在 PySpark 中运行 KMeans 聚类
【发布时间】:2018-05-15 01:48:48
【问题描述】:

这是我第一次尝试在 Spark 中运行 KMeans 聚类分析,所以,对于一个愚蠢的问题,我深表歉意。

我有一个包含许多列的 spark 数据框 mydataframe。我只想在两列上运行 kmeans:latlong(纬度和经度)将它们用作简单值。我想仅基于这 2 列提取 7 个集群。我试过了:

from numpy import array
from math import sqrt
from pyspark.mllib.clustering import KMeans, KMeansModel

# Prepare a data frame with just 2 columns:
data = mydataframe.select('lat', 'long')

# Build the model (cluster the data)
clusters = KMeans.train(data, 7, maxIterations=15, initializationMode="random")

但我收到一个错误:

'DataFrame' 对象没有属性 'map'

KMeans.train 提供的对象应该是什么? 显然,它不接受 DataFrame。 我应该如何为分析准备数据框?

非常感谢!

【问题讨论】:

    标签: pyspark k-means apache-spark-mllib


    【解决方案1】:

    KMeans.train 方法将 RDD 而非数据帧(数据)作为输入。因此,您只需要将数据转换为 rdd:data.rdd。 希望对您有所帮助。

    【讨论】:

    • 太好了,非常感谢!另外,我刚刚在这里发现了一个简短的提及:spark.apache.org/docs/1.0.1/api/java/org/apache/spark/mllib/… - 那么,除了作为 RDD 之外,RDD 还应该被缓存?
    • 这样就够了吗?:data_rdd = data.rdd data_rdd.cache() - 然后:clusters = KMeans.train(data_rdd, 7, maxIterations=15, initializationMode="random")
    • 是的,也应该缓存(为了高速),你的语句就够了
    猜你喜欢
    • 2018-05-15
    • 2019-08-05
    • 1970-01-01
    • 2013-11-18
    • 1970-01-01
    • 2016-02-02
    • 2015-02-05
    • 2019-11-27
    • 2015-02-20
    相关资源
    最近更新 更多