【问题标题】:How to change dataframe column names in pyspark?如何更改pyspark中的数据框列名?
【发布时间】:2016-03-08 17:41:48
【问题描述】:

我来自 pandas 背景,习惯于将 CSV 文件中的数据读取到数据框中,然后使用简单的命令将列名更改为有用的名称:

df.columns = new_column_name_list

但是,这在使用 sqlContext 创建的 pyspark 数据帧中不起作用。 我能想到的唯一解决方案是:

df = sqlContext.read.format("com.databricks.spark.csv").options(header='false', inferschema='true', delimiter='\t').load("data.txt")
oldSchema = df.schema
for i,k in enumerate(oldSchema.fields):
  k.name = new_column_name_list[i]
df = sqlContext.read.format("com.databricks.spark.csv").options(header='false', delimiter='\t').load("data.txt", schema=oldSchema)

这基本上是两次定义变量并首先推断架构,然后重命名列名,然后使用更新的架构再次加载数据框。

有没有更好、更有效的方法来做到这一点,就像我们在 pandas 中所做的那样?

我的 spark 版本是 1.5.0

【问题讨论】:

    标签: python apache-spark pyspark apache-spark-sql


    【解决方案1】:

    有很多方法可以做到这一点:

    • 选项 1. 使用 selectExpr

       data = sqlContext.createDataFrame([("Alberto", 2), ("Dakota", 2)], 
                                         ["Name", "askdaosdka"])
       data.show()
       data.printSchema()
      
       # Output
       #+-------+----------+
       #|   Name|askdaosdka|
       #+-------+----------+
       #|Alberto|         2|
       #| Dakota|         2|
       #+-------+----------+
      
       #root
       # |-- Name: string (nullable = true)
       # |-- askdaosdka: long (nullable = true)
      
       df = data.selectExpr("Name as name", "askdaosdka as age")
       df.show()
       df.printSchema()
      
       # Output
       #+-------+---+
       #|   name|age|
       #+-------+---+
       #|Alberto|  2|
       #| Dakota|  2|
       #+-------+---+
      
       #root
       # |-- name: string (nullable = true)
       # |-- age: long (nullable = true)
      
    • 选项 2。使用withColumnRenamed,请注意此方法允许您“覆盖”同一列。对于 Python3,将 xrange 替换为 range

       from functools import reduce
      
       oldColumns = data.schema.names
       newColumns = ["name", "age"]
      
       df = reduce(lambda data, idx: data.withColumnRenamed(oldColumns[idx], newColumns[idx]), xrange(len(oldColumns)), data)
       df.printSchema()
       df.show()
      
    • 选项 3. 使用 alias,在 Scala 中你也可以使用 as

       from pyspark.sql.functions import col
      
       data = data.select(col("Name").alias("name"), col("askdaosdka").alias("age"))
       data.show()
      
       # Output
       #+-------+---+
       #|   name|age|
       #+-------+---+
       #|Alberto|  2|
       #| Dakota|  2|
       #+-------+---+
      
    • 选项 4. 使用 sqlContext.sql,它允许您在注册为表的 DataFrames 上使用 SQL 查询。

       sqlContext.registerDataFrameAsTable(data, "myTable")
       df2 = sqlContext.sql("SELECT Name AS name, askdaosdka as age from myTable")
      
       df2.show()
      
       # Output
       #+-------+---+
       #|   name|age|
       #+-------+---+
       #|Alberto|  2|
       #| Dakota|  2|
       #+-------+---+
      

    【讨论】:

    • 我用for循环+withColumnRenamed做到了,但你的reduce选项非常好:)
    • 好吧,因为在 DF 上调用某个动作之前,Spark 中什么都做不了,所以它只是不太优雅的代码......最后得到的 DF 是完全一样的!
    • @FelipeGerard 请检查this post,如果你有很多列,可能会发生不好的事情。
    • @AlbertoBonsanto 如果列数超过 100,如何选择列作为别名,这是最好的选择
    • @NuValue,你应该先运行from functools import reduce
    【解决方案2】:
    df = df.withColumnRenamed("colName", "newColName")\
           .withColumnRenamed("colName2", "newColName2")
    

    使用这种方式的优势:对于很长的列列表,您只想更改几个列名。在这些情况下,这可能非常方便。在连接具有重复列名的表时非常有用。

    【讨论】:

    • 此解决方案的变体是否使所有其他列保持不变?使用此方法和其他方法,仅保留显式命名的列(所有其他列均已删除)
    • +1 对我来说效果很好,只是编辑了指定的列,其他列保持不变,没有删除任何列。
    • @Quetzalcoatl 此命令似乎只更改指定的列,而保留所有其他列。因此,一个很好的命令可以重命名可能的许多列名之一
    • @user989762:同意;我最初的理解是不正确的……!
    • 这对于重命名一些列非常有用。有关可以以编程方式重命名列的解决方案,请参阅我的答案。假设您有 200 列,您想重命名其中 50 列具有某种类型的列名称,而其他 150 列保持不变。在这种情况下,您将不想手动运行withColumnRenamed(运行withColumnRenamed 多次也会效率低下,as explained here)。
    【解决方案3】:

    如果您想重命名单个列并保持其余部分不变:

    from pyspark.sql.functions import col
    new_df = old_df.select(*[col(s).alias(new_name) if s == column_to_change else s for s in old_df.columns])
    

    【讨论】:

      【解决方案4】:

      如果您想更改所有列名,请尝试df.toDF(*cols)

      【讨论】:

      • 这个解决方案最接近 df.columns = new_column_name_list 每个 OP,无论是在其简洁程度还是在执行方面。
      • 我觉得这个应该选为最佳答案
      • 对我来说,我是从熊猫数据框中获取标题名称,所以我只使用了df = df.toDF(*my_pandas_df.columns)
      • 这个答案让我很困惑。不应该有从旧列名到新名称的映射吗?将cols 设为新的列名并假设cols 中的名称顺序对应于数据框的列顺序是否有效?
      • @rbatt 将df.selectpyspark.sql.functions col-method 结合使用是一种可靠的方法,因为它维护了应用的映射/别名,因此在重命名操作之后维护了顺序/模式。查看代码 sn-p 的注释:stackoverflow.com/a/62728542/8551891
      【解决方案5】:

      对于单列重命名,您仍然可以使用 toDF()。例如,

      df1.selectExpr("SALARY*2").toDF("REVISED_SALARY").show()
      

      【讨论】:

        【解决方案6】:

        我用这个:

        from pyspark.sql.functions import col
        df.select(['vin',col('timeStamp').alias('Date')]).show()
        

        【讨论】:

        • 虽然这段代码 sn-p 可以解决问题,但including an explanation 确实有助于提高帖子的质量。请记住,您是在为将来的读者回答问题,而这些人可能不知道您提出代码建议的原因。
        【解决方案7】:

        如果您想对所有列名应用一个简单的转换,此代码可以解决问题:(我将所有空格替换为下划线)

        new_column_name_list= list(map(lambda x: x.replace(" ", "_"), df.columns))
        
        df = df.toDF(*new_column_name_list)
        

        感谢@user8117731 提供toDf 技巧。

        【讨论】:

        • 此代码生成一个易于 Catalyst 优化的简单物理计划。它也很优雅。 +1
        【解决方案8】:

        另一种只重命名一列的方法(使用import pyspark.sql.functions as F):

        df = df.select( '*', F.col('count').alias('new_count') ).drop('count')
        

        【讨论】:

          【解决方案9】:

          df.withColumnRenamed('age', 'age2')

          【讨论】:

          • Pankaj Kumar's answerAlberto Bonsanto's answer(分别来自 2016 年和 2015 年)已经建议使用 withColumnRenamed
          • 谢谢,是的,但是有几种不同的语法,也许我们应该将它们收集成更正式的答案? data.withColumnRenamed(oldColumns[idx], newColumns[idx]) vs data.withColumnRenamed(columnname, new columnname) 我认为这取决于您使用的 pyspark 版本
          • 这不是不同的语法。唯一的区别是您没有将列名存储在数组中。
          【解决方案10】:

          这是我使用的方法:

          创建 pyspark 会话:

          import pyspark
          from pyspark.sql import SparkSession
          spark = SparkSession.builder.appName('changeColNames').getOrCreate()
          

          创建数据框:

          df = spark.createDataFrame(data = [('Bob', 5.62,'juice'),  ('Sue',0.85,'milk')], schema = ["Name", "Amount","Item"])
          

          查看带有列名的df:

          df.show()
          +----+------+-----+
          |Name|Amount| Item|
          +----+------+-----+
          | Bob|  5.62|juice|
          | Sue|  0.85| milk|
          +----+------+-----+
          

          用新的列名创建一个列表:

          newcolnames = ['NameNew','AmountNew','ItemNew']
          

          更改 df 的列名:

          for c,n in zip(df.columns,newcolnames):
              df=df.withColumnRenamed(c,n)
          

          使用新列名查看 df:

          df.show()
          +-------+---------+-------+
          |NameNew|AmountNew|ItemNew|
          +-------+---------+-------+
          |    Bob|     5.62|  juice|
          |    Sue|     0.85|   milk|
          +-------+---------+-------+
          

          【讨论】:

            【解决方案11】:

            我制作了一个易于使用的函数来重命名 pyspark 数据框的多个列, 如果有人想使用它:

            def renameCols(df, old_columns, new_columns):
                for old_col,new_col in zip(old_columns,new_columns):
                    df = df.withColumnRenamed(old_col,new_col)
                return df
            
            old_columns = ['old_name1','old_name2']
            new_columns = ['new_name1', 'new_name2']
            df_renamed = renameCols(df, old_columns, new_columns)
            

            小心,两个列表的长度必须相同。

            【讨论】:

            • 这一项做得很好。我需要的东西有点矫枉过正。你可以只传递 df 因为old_columnsdf.columns 相同。
            【解决方案12】:

            您可以使用以下函数重命名数据框的所有列。

            def df_col_rename(X, to_rename, replace_with):
                """
                :param X: spark dataframe
                :param to_rename: list of original names
                :param replace_with: list of new names
                :return: dataframe with updated names
                """
                import pyspark.sql.functions as F
                mapping = dict(zip(to_rename, replace_with))
                X = X.select([F.col(c).alias(mapping.get(c, c)) for c in to_rename])
                return X
            

            如果您只需要更新几个列的名称,您可以在 replace_with 列表中使用相同的列名称

            重命名所有列

            df_col_rename(X,['a', 'b', 'c'], ['x', 'y', 'z'])
            

            重命名一些列

            df_col_rename(X,['a', 'b', 'c'], ['a', 'y', 'z'])
            

            【讨论】:

            • 我喜欢它使用带有别名的 select 语句并使用更多“不可变”类型的框架。但是,我确实发现 toDF 函数和实现所需逻辑的列表推导更加简洁。例如,def append_suffix_to_columns(spark_df, suffix): return spark_df.toDF([c + suffix for c in spark_df.columns])
            • 既然mapping是字典,为什么不能简单地用mapping[c]代替mapping.get(c, c)
            【解决方案13】:

            我们可以使用各种方法来重命名列名。

            首先,让我们创建一个简单的 DataFrame。

            df = spark.createDataFrame([("x", 1), ("y", 2)], 
                                              ["col_1", "col_2"])
            

            现在让我们尝试将 col_1 重命名为 col_3。 PFB 有几种方法可以做到这一点。

            # Approach - 1 : using withColumnRenamed function.
            df.withColumnRenamed("col_1", "col_3").show()
            
            # Approach - 2 : using alias function.
            df.select(df["col_1"].alias("col3"), "col_2").show()
            
            # Approach - 3 : using selectExpr function.
            df.selectExpr("col_1 as col_3", "col_2").show()
            
            # Rename all columns
            # Approach - 4 : using toDF function. Here you need to pass the list of all columns present in DataFrame.
            df.toDF("col_3", "col_2").show()
            

            这是输出。

            +-----+-----+
            |col_3|col_2|
            +-----+-----+
            |    x|    1|
            |    y|    2|
            +-----+-----+
            

            我希望这会有所帮助。

            【讨论】:

              【解决方案14】:

              您可以使用多种方法:

              1. df1=df.withColumn("new_column","old_column").drop(col("old_column"))

              2. df1=df.withColumn("new_column","old_column")

              3. df1=df.select("old_column".alias("new_column"))

              【讨论】:

              • 当您可以使用 withColumnRenamed 时,为什么必须使用 withColumn 来创建另一个具有不同名称的重复列?
              【解决方案15】:

              您可以放入for循环,并使用zip将每个列名配对到两个数组中。

              new_name = ["id", "sepal_length_cm", "sepal_width_cm", "petal_length_cm", "petal_width_cm", "species"]
              
              new_df = df
              for old, new in zip(df.columns, new_name):
                  new_df = new_df.withColumnRenamed(old, new)
              

              【讨论】:

                【解决方案16】:

                我喜欢使用 dict 来重命名 df。

                rename = {'old1': 'new1', 'old2': 'new2'}
                for col in df.schema.names:
                    df = df.withColumnRenamed(col, rename[col])
                

                【讨论】:

                  【解决方案17】:

                  方法一:

                  df = df.withColumnRenamed("new_column_name", "old_column_name")
                  

                  方法二: 如果你想做一些计算并重命名新值

                  df = df.withColumn("old_column_name", F.when(F.col("old_column_name") > 1, F.lit(1)).otherwise(F.col("old_column_name"))
                  df = df.drop("new_column_name", "old_column_name")
                  

                  【讨论】:

                  • 有很多类似的答案,所以不需要再发布一个重复。
                  • withColumnRenamed 中的第一个参数是旧的列名。你的方法1错了
                  【解决方案18】:
                  
                  from pyspark.sql.types import StructType,StructField, StringType, IntegerType
                  
                  CreatingDataFrame = [("James","Sales","NY",90000,34,10000),
                      ("Michael","Sales","NY",86000,56,20000),
                      ("Robert","Sales","CA",81000,30,23000),
                      ("Maria","Finance","CA",90000,24,23000),
                      ("Raman","Finance","CA",99000,40,24000),
                      ("Scott","Finance","NY",83000,36,19000),
                      ("Jen","Finance","NY",79000,53,15000),
                      ("Jeff","Marketing","CA",80000,25,18000),
                      ("Kumar","Marketing","NY",91000,50,21000)
                    ]
                  
                  schema = StructType([ \
                      StructField("employee_name",StringType(),True), \
                      StructField("department",StringType(),True), \
                      StructField("state",StringType(),True), \
                      StructField("salary", IntegerType(), True), \
                      StructField("age", StringType(), True), \
                      StructField("bonus", IntegerType(), True) \
                    ])
                  
                   
                  OurData = spark.createDataFrame(data=CreatingDataFrame,schema=schema)
                  
                  OurData.show()
                  
                  # COMMAND ----------
                  
                  GrouppedBonusData=OurData.groupBy("department").sum("bonus")
                  
                  
                  # COMMAND ----------
                  
                  GrouppedBonusData.show()
                  
                  
                  # COMMAND ----------
                  
                  GrouppedBonusData.printSchema()
                  
                  # COMMAND ----------
                  
                  from pyspark.sql.functions import col
                  
                  BonusColumnRenamed = GrouppedBonusData.select(col("department").alias("department"), col("sum(bonus)").alias("Total_Bonus"))
                  BonusColumnRenamed.show()
                  
                  # COMMAND ----------
                  
                  GrouppedBonusData.groupBy("department").count().show()
                  
                  # COMMAND ----------
                  
                  GrouppedSalaryData=OurData.groupBy("department").sum("salary")
                  
                  # COMMAND ----------
                  
                  GrouppedSalaryData.show()
                  
                  # COMMAND ----------
                  
                  from pyspark.sql.functions import col
                  
                  SalaryColumnRenamed = GrouppedSalaryData.select(col("department").alias("Department"), col("sum(salary)").alias("Total_Salary"))
                  SalaryColumnRenamed.show()
                  
                  

                  【讨论】:

                    【解决方案19】:

                    一种可以使用“别名”来更改列名的方法:

                    col('my_column').alias('new_name')
                    

                    您可以使用“别名”的另一种方式(可能未提及):

                    df.my_column.alias('new_name')
                    

                    【讨论】:

                      猜你喜欢
                      • 1970-01-01
                      • 2018-01-09
                      • 1970-01-01
                      • 1970-01-01
                      • 1970-01-01
                      • 2019-03-27
                      • 1970-01-01
                      • 1970-01-01
                      • 2021-04-25
                      相关资源
                      最近更新 更多