【发布时间】:2020-09-16 19:29:15
【问题描述】:
官方spark documentation只有spark-submit将代码部署到spark集群的方法的信息。它提到我们必须在 kubernetes api 服务器的地址前面加上 k8s://。通过Spark Operator部署时应该怎么做?
例如,如果我有一个像这样启动的基本 pyspark 应用程序,我该如何设置 master:
from pyspark import SparkConf, SparkContext
from pyspark.sql import SQLContext
from pyspark.sql.types import *
from pyspark import SparkConf, SparkContext
sc = SparkContext("local", "Big data App")
spark = SQLContext(sc)
spark_conf = SparkConf().setMaster('local').setAppName('app_name')
这里我有local,如果我在非k8 的集群上运行,我会提到带有spark:// 前缀或yarn 的主地址。如果通过 Spark Operator 部署,我是否还必须使用 k8s:// 前缀?
如果不是,主参数应该使用什么?
【问题讨论】:
标签: apache-spark kubernetes pyspark spark-operator