【发布时间】:2017-11-14 00:10:30
【问题描述】:
我正在本地磁盘上写入 spark 数据帧,但无法将其读回。
val path = "file:///mnt/resources/....."
df.write.parquet(path)
val d = spark.read.parquet(path)
我收到以下错误:
org.apache.spark.sql.AnalysisException: Unable to infer schema for Parquet. It must be specified manually.;
我可以从/向 Azure Datalake 或存储读取和写入,但不能使用本地磁盘。 有没有人面临同样的问题?如何解决?我也用 .csv 文件进行了测试,在这种情况下,它说该文件不存在,即使我登录到工作节点时也可以看到该文件。
【问题讨论】:
标签: azure apache-spark azure-storage parquet azure-data-lake