【发布时间】:2018-01-12 11:33:48
【问题描述】:
对于我的工作,我每天都使用Spark。问题之一来自依赖冲突。我不禁想到,如果人们将他们的 jar 发布到他们自己的命名空间中,他们就会全部消失。
对于内部 jar,我正在考虑为所有依赖项执行此操作。除了一点点工作,我认为这是一个好主意。有没有我遗漏的缺点/风险?
【问题讨论】:
-
显然存在膨胀问题。如果包含 10 个库,每个库都有自己的
Spark版本,那么Sparkjar 将是使用依赖解析选择单个版本的 10 倍。如果您将所有版本发布到存储库(例如 nexus),那么您可能会发现额外的 jar 开始在 nexus 上占用相当多的磁盘空间 -
这个问题是个坑,底部是一个认识——适合自己的就是最适合自己的。
标签: java apache-spark gradle dependencies