【发布时间】:2017-02-26 06:23:57
【问题描述】:
我想使用我自己的应用程序 Spark jars。更具体地说,我有一罐尚未发布的 mllib,其中包含 BisectingKMeans 的固定错误。所以,我的想法是在我的 spark 集群中使用它(在本地它工作得很好)。
我尝试了很多东西:extraclasspath、userClassPathFirst、jars 选项...许多选项不起作用。我的最后一个想法是使用 sbt 的 Shade 规则将所有 org.apache.spark.* 包更改为 shadespark.* 但是当我部署它时仍然使用集群的 spark jars。
有什么想法吗?
【问题讨论】:
标签: apache-spark