【问题标题】:Pyspark: Extracting rows of a dataframe where value contains a string of charactersPyspark:提取值包含字符串的数据帧的行
【发布时间】:2020-11-28 07:46:44
【问题描述】:

我正在使用 pyspark,我有一个大数据框,其中只有一列值,其中每一行都是一长串字符:

col1
-------
'2020-11-20;id09;150.09,-20.02'
'2020-11-20;id44;151.78,-25.14'
'2020-11-20;id78;148.24,-22.67'
'2020-11-20;id55;149.77,-27.89'
...
...
...

我正在尝试提取“idxx”匹配字符串列表的数据帧行,例如 [“id01”、“id02”、“id22”、“id77”、...]。目前,我从数据框中提取行的方式是:

df.filter(df.col1.contains("id01") | df.col1.contains("id02") | df.col1.contains("id22") | ... )

有没有一种方法可以提高效率,而不必将每个字符串项都硬编码到过滤器函数中?

【问题讨论】:

    标签: sql apache-spark pyspark apache-spark-sql


    【解决方案1】:

    尝试在 pyspark 中使用 .rlike 运算符。

    Example:

    df.show(10,False)
    #+-----------------------------+
    #|col1                         |
    #+-----------------------------+
    #|2020-11-20;id09;150.09,-20.02|
    #|2020-11-20;id44;151.78,-25.14|
    #|2020-11-20;id78;148.24,-22.67|
    #+-----------------------------+
    
    #(id09|id78) match either id09 or id78
    #for your case use this df.filter(col("col1").rlike('(id01|id02|id22)')).show(10,False)
    
    df.filter(col("col1").rlike('(id09|id78)')).show(10,False)
    #+-----------------------------+
    #|col1                         |
    #+-----------------------------+
    #|2020-11-20;id09;150.09,-20.02|
    #|2020-11-20;id78;148.24,-22.67|
    #+-----------------------------+
    

    【讨论】:

      【解决方案2】:
      from functools import reduce
      from operator import or_
      
      str_list = ["id01", "id02", "id22", "id77"]
      df.filter(reduce(or_, [df.col1.contains(s) for s in str_list]))
      

      【讨论】:

        猜你喜欢
        • 2017-10-27
        • 1970-01-01
        • 1970-01-01
        • 2021-09-08
        • 1970-01-01
        • 2020-01-11
        • 1970-01-01
        • 2022-11-02
        • 2018-04-27
        相关资源
        最近更新 更多