【发布时间】:2016-01-19 08:08:02
【问题描述】:
我一直在尝试使用scala-2.11.1(当时的最新版本)编译 Apache spark。但是,每次我尝试它都会将所有内容编译为scala-2.10.*。我不明白为什么。
官方文档建议我们使用dev/文件夹中的脚本切换到2.11后使用maven进行编译。
如果我想改用 sbt 怎么办?
【问题讨论】:
-
顺便说一句,目前Scala的最新版本是2.11.6。
-
@DaleWijnand,谢谢。顺便说一句,我是否正确假设为 scala-2.11.* 获取依赖项与 *.1 或 *.6 的天气相同?
-
是的。在 2.9 天不是这样,但现在这并不重要。
标签: scala sbt apache-spark