【问题标题】:Spark Scala app not running in eclipse using sbtSpark Scala 应用程序未使用 sbt 在 Eclipse 中运行
【发布时间】:2018-02-21 16:51:23
【问题描述】:

我,我按照下面的链接并使用 sbt eclpise 插件在 Eclipse 中创建了一个 spark scala 应用程序。

https://www.nodalpoint.com/development-and-deployment-of-spark-applications-with-scala-eclipse-and-sbt-part-1-installation-configuration/

遵循所有步骤,并能够使用 sbt 运行 SampleApp。但是当我将应用程序移植到 Eclipse 时,我无法运行该应用程序。但可以使用 Scala 解释器逐行运行。以下是我在运行应用程序时遇到的错误。知道出了什么问题吗?

Using Spark's default log4j profile: org/apache/spark/log4j-
defaults.properties
17/09/12 22:27:55 INFO SparkContext: Running Spark version 1.6.0
17/09/12 22:27:56 WARN NativeCodeLoader: Unable to load native-hadoop 
library for your platform... using builtin-java classes where applicable
17/09/12 22:27:56 ERROR SparkContext: Error initializing SparkContext.
org.apache.spark.SparkException: A master URL must be set in your 
configuration
at org.apache.spark.SparkContext.<init>(SparkContext.scala:401)
at TowerLocator$.main(TowerLocator.scala:11)
at TowerLocator.main(TowerLocator.scala)
17/09/12 22:27:56 INFO SparkContext: Successfully stopped SparkContext
Exception in thread "main" org.apache.spark.SparkException: A master URL 
must be set in your configuration
at org.apache.spark.SparkContext.<init>(SparkContext.scala:401)
at TowerLocator$.main(TowerLocator.scala:11)
at TowerLocator.main(TowerLocator.scala)

谢谢

【问题讨论】:

  • 将 setMaster("local[*]") 添加到您的代码中。

标签: eclipse scala apache-spark sbt sbteclipse


【解决方案1】:

从 Eclipse 启动应用程序时,您必须指定主 URL。

val conf = new SparkConf().setAppName("Sample Application").setMaster("local[*]")

从 shell 启动时,您使用 --master 参数指定它

【讨论】:

  • 我在我的 scala 应用程序中添加了这个,同时创建了 conf。
猜你喜欢
  • 2017-06-02
  • 1970-01-01
  • 2018-05-27
  • 1970-01-01
  • 2015-08-25
  • 2019-02-24
  • 2019-05-22
  • 2015-03-06
  • 2023-03-22
相关资源
最近更新 更多