【发布时间】:2016-05-11 01:34:30
【问题描述】:
假设我正在使用 spark(scala) 从 HDFS 读取文件。 HDFS 块大小为 64 MB。
假设 HDFS 文件大小为 130 MB。
我想知道在基本 RDD 中创建了多少个分区
scala> val distFile = sc.textFile("hdfs://user/cloudera/data.txt")
真的没有。分区数是根据块大小决定的?
在上述情况下,没有。分区数是 3?
【问题讨论】:
标签: apache-spark