【发布时间】:2017-01-13 15:08:03
【问题描述】:
假设我有以下数据
+--------------------+-----+--------------------+
| values|count| values2|
+--------------------+-----+--------------------+
| aaaaaa| 249| null|
| bbbbbb| 166| b2|
| cccccc| 1680| something|
+--------------------+-----+--------------------+
那么如果values2 列中有空值,如何将values1 列分配给它呢?所以结果应该是:
+--------------------+-----+--------------------+
| values|count| values2|
+--------------------+-----+--------------------+
| aaaaaa| 249| aaaaaa|
| bbbbbb| 166| b2|
| cccccc| 1680| something|
+--------------------+-----+--------------------+
我想到了以下几点,但它不起作用:
df.na.fill({"values2":df['values']}).show()
我找到了这种方法来解决它,但应该有更清晰的东西:
def change_null_values(a,b):
if b:
return b
else:
return a
udf_change_null = udf(change_null_values,StringType())
df.withColumn("values2",udf_change_null("values","values2")).show()
【问题讨论】:
-
@Mpizos Dimitris,看看这个stackoverflow.com/questions/61964179/…
标签: apache-spark dataframe pyspark