【发布时间】:2017-02-06 09:20:43
【问题描述】:
在 pandas 中,这可以通过 column.name 来完成。
但是当它的 spark dataframe 列时如何做呢?
例如调用程序有一个 spark 数据框:spark_df
>>> spark_df.columns
['admit', 'gre', 'gpa', 'rank']
这个程序调用我的函数:my_function(spark_df['rank']) 在 my_function 中,我需要列的名称,即“rank”
如果是pandas dataframe,我们可以在my_function里面使用
>>> pandas_df['rank'].name
'rank'
【问题讨论】:
标签: pyspark pyspark-sql