【发布时间】:2018-03-02 18:45:37
【问题描述】:
我正在使用 Databricks,并已从数据湖上传了一个外部文件。我使用以下代码导入数据,使用库 SparkR:
df = read.df("adl://test.azuredatalakestore.net/test.csv", source = 'csv', header = TRUE)
它是一个 Spark DataFrame,它限制了我对其进行一些操作。我无法使用read.csv 导入文件,所以有没有办法可以将其更改为普通的DataFrame,以便执行一些更改。
【问题讨论】:
标签: r apache-spark