spark 创建分区

val scores = Array(("Fred", 88), ("Fred", 95), ("Fred", 91), ("Wilma", 93), ("Wilma", 95), ("Wilma", 98))

val input = sc.parallelize(scores,3)   #这里创建了3个分区

查看分区数:

input.partitions.size

 

查看分区的内容和情况

input.glom().collect()

相关文章:

  • 2021-12-18
  • 2021-04-28
  • 2022-12-23
  • 2022-12-23
  • 2022-02-20
  • 2021-08-03
  • 2021-10-14
  • 2021-07-31
猜你喜欢
  • 2021-05-27
  • 2021-11-08
  • 2021-11-26
  • 2021-09-06
  • 2022-12-23
  • 2021-10-18
相关资源
相似解决方案