【发布时间】:2017-01-15 01:30:39
【问题描述】:
谁能解释一下将为 Spark Dataframe 创建的分区数量。
我知道对于 RDD,在创建它时我们可以像下面这样提及分区的数量。
val RDD1 = sc.textFile("path" , 6)
但是对于 Spark 数据框,在创建时我们似乎没有像 RDD 那样指定分区数量的选项。
我认为唯一的可能性是,在创建数据框后,我们可以使用重新分区 API。
df.repartition(4)
那么任何人都可以告诉我是否可以在创建数据框时指定分区数。
【问题讨论】:
-
如果提供的解决方案回答了您的问题,请接受它以关闭问题或评论它为什么不能解决它!
标签: apache-spark dataframe apache-spark-sql