【问题标题】:Spark assign value if null to column (python)如果为空,则 Spark 将值分配给列(python)
【发布时间】:2017-01-13 15:08:03
【问题描述】:

假设我有以下数据

+--------------------+-----+--------------------+
|              values|count|             values2|
+--------------------+-----+--------------------+
|              aaaaaa|  249|                null|
|              bbbbbb|  166|                  b2|
|              cccccc| 1680|           something|
+--------------------+-----+--------------------+

那么如果values2 列中有空值,如何将values1 列分配给它呢?所以结果应该是:

+--------------------+-----+--------------------+
|              values|count|             values2|
+--------------------+-----+--------------------+
|              aaaaaa|  249|              aaaaaa|
|              bbbbbb|  166|                  b2|
|              cccccc| 1680|           something|
+--------------------+-----+--------------------+

我想到了以下几点,但它不起作用:

df.na.fill({"values2":df['values']}).show()

我找到了这种方法来解决它,但应该有更清晰的东西:

def change_null_values(a,b):
    if b:
        return b
    else:
        return a

udf_change_null = udf(change_null_values,StringType())

df.withColumn("values2",udf_change_null("values","values2")).show()

【问题讨论】:

标签: apache-spark dataframe pyspark


【解决方案1】:

跟进@shadow_dev 的方法:

    df.withColumn("values2", 
                  when(col("values2").isNull(), col("values1"))
                  .otherwise(col("values2")))

Dmytro Popovych 的解决方案仍然是最干净的。

如果需要更多花哨的何时/否则逻辑:

df.withColumn("values2", when(col("values2").isNull() | col("values3").isNull(), col("values1"))
.when(col("values1") == col("values2"), 1)
.otherwise(0))

【讨论】:

    【解决方案2】:

    您可以使用列属性.isNull()

    df.where(col("dt_mvmt").isNull())
    
    df.where(col("dt_mvmt").isNotNull())
    

    这个答案来自this 答案 - 我只是没有足够的声誉来添加评论。

    【讨论】:

    • 没有提供完整的解决方案。只是对解决方案的提示。
    【解决方案3】:

    您可以使用https://spark.apache.org/docs/1.6.2/api/python/pyspark.sql.html#pyspark.sql.functions.coalesce

    df.withColumn('values2', coalesce(df.values2, df.values)).show()
    

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 2012-08-31
      • 1970-01-01
      • 2017-08-19
      • 2011-10-08
      • 1970-01-01
      • 2017-04-12
      • 1970-01-01
      • 1970-01-01
      相关资源
      最近更新 更多