【问题标题】:Write Spark dataframe into delta lake将 Spark 数据帧写入 delta Lake
【发布时间】:2020-02-04 16:40:22
【问题描述】:

我正在尝试使用文档提供的示例代码将 Spark 数据帧转换为增量格式,但总是出现这个奇怪的错误。你能帮忙或指导吗?

df_sdf.write.format("delta").save("/mnt/.../delta/")

错误看起来像:

org.apache.spark.SparkException: Job aborted.

--------------------------------------------------------------------------- Py4JJavaError Traceback (most recent call last) <command-3011941952225495> in <module> ----> 1 df_sdf.write.format("delta").save("/mnt/.../delta/") /databricks/spark/python/pyspark/sql/readwriter.py in save(self, path, format, mode, partitionBy, **options) 737 self._jwrite.save() 738 else: --> 739 self._jwrite.save(path) 740 741 @since(1.4)
/databricks/spark/python/lib/py4j-0.10.7-src.zip/py4j/java_gateway.py in call(self, *args) 1255 answer = self.gateway_client.send_command(command) 1256 return_value = get_return_value( -> 1257 answer, self.gateway_client, self.target_id, self.name) 1258 1259 for temp_arg in temp_args:

/databricks/spark/python/pyspark/sql/utils.py in deco(a, *kw)

【问题讨论】:

    标签: apache-spark pyspark azure-databricks delta delta-lake


    【解决方案1】:

    /mnt/.../delta/

    不是有效路径。

    【讨论】:

    • 我只是掩盖了我使用的真实路径。你知道有效路径是什么样的吗?
    【解决方案2】:

    我遇到了同样的错误,问题是我使用的是 Spark 3.0 Preview。我不得不将 spark 版本更改为 2.4,问题得到解决。

    【讨论】:

      【解决方案3】:

      试试这个:

      df_sdf.write.format("delta").save("/mnt/.../delta/sdf")
      

      【讨论】:

        猜你喜欢
        • 1970-01-01
        • 2021-10-16
        • 2019-10-06
        • 2022-08-05
        • 2021-07-14
        • 1970-01-01
        • 1970-01-01
        • 1970-01-01
        • 1970-01-01
        相关资源
        最近更新 更多