【问题标题】:Spark Scala where date is greater than日期大于的 Spark Scala
【发布时间】:2021-03-25 10:06:52
【问题描述】:

我想创建一个函数来获取包括今天在内的最近 4 天的数据。这是我的功能,我错过了什么?当我运行测试时,我得到了一个空表。

df.where(trunc(col("date"),"day") >= date_add(current_date(),-4))

【问题讨论】:

    标签: sql scala apache-spark apache-spark-sql


    【解决方案1】:

    尝试改用date_trunctrunc 只支持月份和年份。另请注意,date_trunc 接受的参数顺序与trunc 的相反。

    df.where(date_trunc("day",col("date")) >= date_add(current_date(),-4))
    

    【讨论】:

      猜你喜欢
      • 2019-03-07
      • 2019-05-26
      • 1970-01-01
      • 1970-01-01
      • 2022-08-11
      • 2021-06-08
      • 1970-01-01
      • 1970-01-01
      • 2019-07-15
      相关资源
      最近更新 更多