【发布时间】:2017-10-01 09:08:44
【问题描述】:
我想重置 pyspark 代码中的 spark.sql.shuffle.partitions 配置,因为我需要加入两个大表。但是下面的代码在最新的spark版本中不起作用,报错说“no method "setConf" in xxx”
#!/usr/bin/python
# -*- coding: utf-8 -*-
import sys
import pyspark
from pyspark.context import SparkContext
from pyspark.sql.session import SparkSession
sc = SparkContext('local')
spark = SparkSession(sc)
spark.sparkContext.setConf("spark.sql.shuffle.partitions", "1000")
spark.sparkContext.setConf("spark.default.parallelism", "1000")
# or using the follow, neither is working
spark.setConf("spark.sql.shuffle.partitions", "1000")
spark.setConf("spark.default.parallelism", "1000")
我现在想知道如何重置“spark.sql.shuffle.partitions”。
【问题讨论】:
标签: shuffle pyspark-sql