【发布时间】:2019-08-29 10:51:04
【问题描述】:
我有一个像这样的 PySpark 数据框,
+----------+------+------+------+------+------+------+------+------+------+------+------+------+------+
|id |201806|201807|201808|201809|201810|201811|201812|201901|201902|201903|201904|201905|201906|
+----------+------+------+------+------+------+------+------+------+------+------+------+------+------+
| 1 | 15| 15| 15| 15| 15| 15| 15| 15| 15| null| 15| 15| 15|
| 2 | 4| 4| 4| 4| 4| 4| 4| 4| 4| 4| 4| 4| 4|
| 3 | 7| 7| 7| 7| 7| 7| 7| 7| null| null| null| null| null|
-------------------------------------------------------------------------------------------------------
从这些数据中,我想为每一行找到最新的非空值。
我希望得到以下结果。
+----------+------+
|id. |latest|
+----------+------+
| 1 | 15|
| 2 | 4|
| 3 | 7|
-------------------
我关注了这个answer,但我无法按行执行操作。
我用过,
df.select([last(x, ignorenulls=True).alias(x) for x in df.columns])
但此代码仅按列执行,我希望按行执行相同的操作。
【问题讨论】:
-
你尝试过什么?
-
我已经更新了......