此报错,实属罕见。排除了spark配置及集群参数等后,追本溯源,怀疑是服务器上误上传了一个jar包到了spark指定目录,删掉后,问题解决。

 

37. Spark-shell启动时,报如下错误 java.lang.AssertionError: assertion failed: unsafe symbol SparkSession (ch

 

删掉

/usr/hdp/2.6.5.0-292/spark2/jars/ Spark该目录下存在的一个jar包: XXXXX.spark-XXXXX-0.0.1.jar (此jar包,是某项目用到的jar包,是误操作上传到此目录)。

即可

 

此贴来自汇总贴的子问题,只是为了方便查询。

总贴请看置顶帖:

pyspark及Spark报错问题汇总及某些函数用法。

https://blog.csdn.net/qq0719/article/details/86003435

相关文章:

  • 2021-09-04
  • 2021-11-19
  • 2021-04-11
  • 2021-12-12
  • 2022-12-23
  • 2021-07-18
  • 2021-08-18
猜你喜欢
  • 2021-10-18
  • 2021-11-19
  • 2021-10-09
  • 2022-12-23
  • 2021-07-13
  • 2021-08-09
相关资源
相似解决方案