【问题标题】:How to save a DataFrame to a csv file in spark 1.6?如何在 spark 1.6 中将 DataFrame 保存到 csv 文件?
【发布时间】:2017-09-12 10:29:47
【问题描述】:

我正在处理一个包含两列 uni_key 和 createdDate 的数据框。我运行 SQL 查询并将结果保存到 a,现在我想将这些结果保存到 csv 文件中。有没有办法做到这一点?这是一个代码sn-p:

import sys
from pyspark import SparkContext
from pyspark.sql import SQLContext, Row
import csv



if len(sys.argv) != 2:

    print("Usage: cleaning_date.py <file>")
    exit(-1)
sc = SparkContext()
sqlContext = SQLContext(sc)
csvfile = sc.textFile("new_311.csv")
key_val = csvfile.mapPartitions(lambda x: csv.reader(x)).map(lambda x: (x[0], x[1]))
result = key_val.filter(lambda x: getDataType(x[1]) == "valid")
myDataFrame = sqlContext.createDataFrame(result, ('uni_key', 'createdDate'))
print(type(myDataFrame))
myDataFrame.registerTempTable("abc")
a = sqlContext.sql("SELECT uni_key FROM abc")
a.show()
# a.write.format("com.databricks.spark.csv").save("l.csv")
a.write.option("header", "true").csv("aaa.csv")
sc.stop()

此代码现在给出以下错误:

AttributeError: 'DataFrameWriter' 对象没有属性 'csv'

【问题讨论】:

  • 是否注释掉了a.write.format("com.databricks.spark.csv").save("l.csv") 行,不起作用?
  • 不,注释掉没有用

标签: csv apache-spark pyspark apache-spark-sql pyspark-sql


【解决方案1】:

Spark 2.0 中引入了内置 CSV 编写器,您显然使用的是 Spark 1.x。

要么使用spark-csv

df.write.format("com.databricks.spark.csv").save(path)

或将 Spark 更新到最新版本。

【讨论】:

  • 感谢@user7875578,我更新到 spark 2 并且它工作正常。 :)
  • 我应该为 PySpark 1.6.1 做什么?当我运行df.write.format("com.databricks.spark.csv").save(path) 时,我看到java.lang.ClassNotFoundException: Failed to find data source: com.databricks.spark.csv.
  • @Candic3 使用此命令启动 pyspark pyspark --packages com.databricks:spark-csv_2.10:1.4.0
  • @user2017 你的完全是tanvi问题的真正解决方案!他没有指定在 Databricks 中,因此 user7875578 的答案通常是错误的,并且对于环境来说非常具体。另一方面,您的通用且始终可靠。 100% 工作,独立于使用 Databricks 的环境。
猜你喜欢
  • 1970-01-01
  • 1970-01-01
  • 2016-01-15
  • 2018-03-02
  • 2020-02-10
  • 2020-02-12
  • 1970-01-01
  • 2017-06-17
  • 1970-01-01
相关资源
最近更新 更多