【问题标题】:Collaborative filtering spark python协同过滤 spark python
【发布时间】:2020-06-08 21:00:17
【问题描述】:

我正在尝试仅将 10 行数据框保存到 json。但他保存的不是 10 行。

userRecs = model.recommendForAllUsers(10)

  • 这个节目10然后我保存:
userRecs.coalesce(1).write.mode('overwrite').json("gs://imdbcc1/ML/userrecs")

但它给了我 200 000 条记录。我只想存10个

(training, test) = ratings.randomSplit([0.8, 0.2])
als = ALS(maxIter=10, regParam=1, userCol="user_id", itemCol="tconst", ratingCol="rating", coldStartStrategy="drop")
model = als.fit(training)
#Evaluate the model by computing the RMSE on the test data
predictions = model.transform(test)
evaluator = RegressionEvaluator(metricName="rmse", labelCol="rating", predictionCol="prediction")
rmse = evaluator.evaluate(predictions)
print("Root-mean-square error = " + str(rmse))
#Generate top 10 movie recommendations for each user
userRecs = model.recommendForAllUsers(10)
userRecs.coalesce(1).write.mode('overwrite').json("gs://imdbcc1/ML/userrecs")

【问题讨论】:

  • 您应该使用代码块以获得更好的可读性,并从问题本身中删除这段代码。只有代码块应该包含您想要共享的代码,否则它会让您的问题难以阅读。

标签: json apache-spark pyspark apache-spark-sql collaborative-filtering


【解决方案1】:
#Generate top 10 movie recommendations for each user
userRecs = model.recommendForAllUsers(10)

表示对于所有用户,您获得了前 10 部电影推荐。但所有记录都会附有前 10 部电影推荐。

你必须在coalese之前为10个用户使用limit(10)(在数据上排名前10的电影推荐)

喜欢这个

userRecs.limit(10).coalesce(1).write.mode('overwrite').json("gs://imdbcc1/ML/userrecs")

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 2014-09-05
    • 2017-10-21
    • 1970-01-01
    • 2015-05-23
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多