【问题标题】:Renaming columns with ' in pyspark在pyspark中用\'重命名列
【发布时间】:2022-10-05 10:38:27
【问题描述】:

如何在pyspark中将列“RANDY'S”重命名为“RANDYS”?

我尝试了下面的代码,但它不起作用

test_rename_df=df.withColumnRenamed('"RANDY''S"','RANDYS')

请注意,原始列名周围有双引号

enter image description here

【问题讨论】:

  • 根据屏幕截图,我认为列名周围没有"。 spark 使用了双引号,因为它不能使用单引号(这是默认设置)。你可以试试withColumnRenamed("RANDY'S", 'RANDYS')

标签: pyspark multiple-columns rename


【解决方案1】:

您在原始列名周围添加了太多引号。尝试这个:

test_rename_df = df.withColumnRenamed("RANDY'S", "RANDYS")

边注

当您调用df.columns 时,RANDY'S 列用双引号而不是单引号括起来以避免混淆。

如果您的列名称为 RANDY"Sdf.columns 将在列名称周围使用单引号(请参见下面的屏幕截图):

【讨论】:

    猜你喜欢
    • 2023-04-02
    • 1970-01-01
    • 2016-12-12
    • 2017-05-30
    • 2019-03-27
    • 1970-01-01
    • 2015-07-11
    • 2022-01-04
    • 2016-09-23
    相关资源
    最近更新 更多