【发布时间】:2015-11-29 18:37:39
【问题描述】:
我有一个使用 Apache NiFi 接收器的 Spark Streaming Scala 项目。这些项目在 Eclipse/Scala IDE 下运行良好,现在我想打包它以进行部署。 当我将其添加为
libraryDependencies += "org.apache.nifi" %% "nifi-spark-receiver" % "0.3.0"
sbt 假定它是一个 Scala 库并尝试解决它。
如何将 NiFi 接收器及其所有依赖项添加到项目的 SBT 文件中?
另外,是否可以将依赖项添加到本地目录而不是 sbt 尝试解析?
提前致谢。
这是我的 sbt 文件内容:
name := "NiFi Spark Test"
version := "1.0"
scalaVersion := "2.10.5"
libraryDependencies += "org.apache.spark" %% "spark-core" % "1.5.2" % "provided"
libraryDependencies += "org.apache.nifi" %% "nifi-spark-receiver" % "0.3.0"
【问题讨论】:
-
你也可以试试maven build link
标签: scala sbt spark-streaming scala-ide apache-nifi