【发布时间】:2020-07-29 07:17:36
【问题描述】:
小问题。 “scala runtime”(scala SDK)是否真的需要呈现或需要安装才能在“本地模式”下运行spark shell或spark程序
JVM 已经存在。
请分享您的意见
【问题讨论】:
标签: apache-spark
小问题。 “scala runtime”(scala SDK)是否真的需要呈现或需要安装才能在“本地模式”下运行spark shell或spark程序
JVM 已经存在。
请分享您的意见
【问题讨论】:
标签: apache-spark
【讨论】:
默认情况下,Spark 有 Scala、Python 运行时。 Scala 将在 JVM 上运行。因此您无需创建单独的运行时。
【讨论】: