【发布时间】:2019-07-23 12:56:47
【问题描述】:
这是我写的:
import org.apache.spark.SparkConf
import org.apache.spark.sql.SparkSession
object ProcessingApp extends App {
val sparkConf = new SparkConf()
.setAppName("er")
.setMaster("local")
val sparkSession: SparkSession = SparkSession.builder().config(sparkConf).getOrCreate()
val test = sparkSession.version
println(test)
}
我想用我的 Intellij IDE 在本地运行它,方法是右键单击运行 ProcessingApp 但这不起作用,我在 build.sbt 文件级别没有提供我的 spark 依赖项。我收到此错误:
Caused by: java.lang.ClassNotFoundException: org.apache.spark.sql.SparkSession
at java.net.URLClassLoader.findClass(URLClassLoader.java:382)
at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:349)
at java.lang.ClassLoader.loadClass
【问题讨论】:
-
你能打开
edit configurations然后点击Include dependencies with "Provided" scope就像here一样吗?
标签: scala apache-spark