【发布时间】:2017-10-03 02:31:21
【问题描述】:
我有一个需要多个依赖项的 Spark 程序。
一个依赖:a.jar 是集群a_2.8.jar 上的2.8 版本,但是,我需要使用它的2.9 版本,a_2.9.jar。
每次启动程序,spark都会自动从集群加载a_2.8.jar,而不是加载a_2.9.jar,即使我已经通过--jars a_2.9.jar提交了这个jar。
我尝试使用spark.executor.userClassPathFirst 设置,但还有另一个问题。在我的 userClassPath 中有一个“秘密”jar 文件,比如“b.jar”,它不适用于集群,并且依赖项太多,我不知道哪个 jar 不起作用。
总结一下:
如果我使用集群默认类路径,a.jar 会发生冲突。
如果我使用userClassPathFirst,b.jar 会发生冲突。 (不知道是哪个b.jar)
我希望有人能给我建议,这里最好的解决方案是什么,以最大程度地减少工作。
【问题讨论】:
标签: scala apache-spark jar version-control