【发布时间】:2015-05-19 21:11:34
【问题描述】:
我正在尝试运行一个有多个 jar 文件的 spark 程序,如果我只有一个 jar 文件,我将无法运行。我想添加位于同一位置的两个 jar 文件。我已经尝试了以下,但它显示了一个依赖错误
spark-submit \
--class "max" maxjar.jar Book1.csv test \
--driver-class-path /usr/lib/spark/assembly/lib/hive-common-0.13.1-cdh5.3.0.jar
如何添加另一个在同一目录中的 jar 文件?
我想添加/usr/lib/spark/assembly/lib/hive-serde.jar。
【问题讨论】:
-
欢迎@avinash,下一篇文章我建议你看看stackoverflow.com/editing-help
-
spark-submit [restofyouroptions] --conf "spark.driver.extraClassPath=myjarfile.jar" -
多个jar文件:
"spark.driver.extraClassPath=/path/myjarfile1.jar:/path/myjarfile2.jar" -
@zahra 对我不起作用,“没有合适的驱动程序”发现错误。这个问题是由于JVM在设置'extraClassPath'conf之前已经启动了。有什么方法可以在JVM启动之前设置它吗?
标签: submit apache-spark classpath