【发布时间】:2021-03-18 00:51:14
【问题描述】:
我的代码在下面
import org.apache.spark.SparkContext;
import org.apache.spark.SparkConf;
object WordCounter {
def main(args: Array[String]) {
val conf = new SparkConf().setAppName("Word Counter").setMaster("local")
val sc = new SparkContext(conf)
val textFile = sc.textFile("C:/spark/README.md")
val tokenizedFileData = textFile.flatMap(line=>line.split(" "))
val countPrep = tokenizedFileData.map(word=>(word,1))
val counts = countPrep.reduceByKey((accumValue,newValue)=> accumValue + newValue)
val sortedCounts = counts.sortBy(kvPair=>kvPair._2,false)
sortedCounts.saveAsTextFile("C:/Data/WordCountViaApp")
}
}
有人可以帮忙吗?
C:\Users\workspace\SparkInScala>spark-submit --class "WordCounter" "C:\Users\workspace\SparkInScala\target\scala-2.12\sparkinscala_2.12-0.1.0-SNAPSHOT.jar" 错误:无法加载 WordCounter 类。
【问题讨论】:
-
您使用哪个 IDE 来执行此操作?是日食吗?
-
嘿,是的,阿布舍克。在 Eclipse 中它工作正常。但是当我尝试在命令提示符下做一个 sbt 包时,它失败了
标签: scala apache-spark sbt word-count spark-submit