这两天一直在写spark程序,遇到了一个奇怪的问题。

  问题简单描述如下,有两个RDD,设为rdd_a,rdd_b,当将这两个rdd合并的时候,spark会在运行中卡死。

  解决方式也是奇葩。

  只要在合并这两个rdd之前,分别执行rdd_a.count(),rdd_b.count(),程序就又能够愉快的走下去了。

  也就是说如果在转换操作的时候程序运行卡死,请尝试在转换操作之前,先对RDD进行行动操作。

  参考:

  stackOverFlow

 

相关文章:

  • 2021-10-30
  • 2021-08-17
  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
  • 2021-12-18
猜你喜欢
  • 2021-05-31
  • 2021-07-19
  • 2021-11-23
  • 2022-01-24
  • 2021-12-13
  • 2021-12-25
相关资源
相似解决方案