【发布时间】:2015-08-31 20:33:38
【问题描述】:
我有一个使用 spark 和 spark sql 的 sbt 项目,但我的集群使用 hadoop 1.0.4 和 spark 1.2 和 spark-sql 1.2,目前我的 build.sbt 看起来像这样:
libraryDependencies ++= Seq(
"com.datastax.cassandra" % "cassandra-driver-core" % "2.1.5",
"com.datastax.cassandra" % "cassandra-driver-mapping" % "2.1.5",
"com.datastax.spark" % "spark-cassandra-connector_2.10" % "1.2.1",
"org.apache.spark" % "spark-core_2.10" % "1.2.1",
"org.apache.spark" % "spark-sql_2.10" % "1.2.1",
)
事实证明,我正在使用 hadoop 2.2.0 运行应用程序,但我希望在我的依赖项中看到 hadoop-*-1.0.4。请问我该怎么办?
【问题讨论】:
标签: scala apache-spark sbt