【问题标题】:How can I create a new column in PySpark with Date_Sub and Agg functions?如何使用 Date_Sub 和 Agg 函数在 PySpark 中创建新列?
【发布时间】:2022-12-07 03:16:10
【问题描述】:

我想创建一个包含日期聚合的新列——如何在 with 列运算符中包含 date_sub 和 MIN,MIX 聚合?

到目前为止,我已经尝试了这些方法 -

.withColumn("Last_Year_START_Date", F.date_sub(date_sub("DayDate"),364))
.select(F.date_sub(min(col("DayDate")),1)364).alias('Last_Year_START_Date')

【问题讨论】:

    标签: python apache-spark pyspark


    【解决方案1】:

    用这个:

    .select(date_sub("DayDate", 364).alias('LY_YearStartDate'),"DayDate")
    .agg(F.min("LY_YearStartDate").alias("LY_YearStartDate"))
    

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 1970-01-01
      • 2012-08-18
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 2020-02-16
      相关资源
      最近更新 更多