好的。假设您想在 Spark 中执行此操作。此外,由于这些是巨大的集合,假设它们还没有在内存中,它们都在一个文件中 - 文件中的每一行表示集合中的一个条目。
我们将使用RDDs 表示集合 - Spark 存储数据的标准方式。
使用这个解析器(改编自here)
import scala.util.parsing.combinator.JavaTokenParsers
import org.apache.spark.rdd.RDD
case class Query[T](setMap: Map[String, RDD[T]]) extends JavaTokenParsers {
private lazy val expr: Parser[RDD[T]]
= term ~ rep("union" ~ term) ^^ { case f1 ~ fs => (f1 /: fs)(_ union _._2) }
private lazy val term: Parser[RDD[T]]
= fact ~ rep("inter" ~ fact) ^^ { case f1 ~ fs => (f1 /: fs)(_ intersection _._2) }
private lazy val fact: Parser[RDD[T]]
= vari | ("(" ~ expr ~ ")" ^^ { case "(" ~ exp ~ ")" => exp })
private lazy val vari: Parser[RDD[T]]
= setMap.keysIterator.map(Parser(_)).reduceLeft(_ | _) ^^ setMap
def apply(expression: String) = this.parseAll(expr, expression).get.distinct
}
在将上述内容粘贴到 shell 后,观察以下 spark-shell 交互(为简洁起见,我省略了一些回复):
> val x = sc.textFile("X.txt").cache \\ contains "1\n2\n3\n4\n5"
> val y = sc.textFile("Y.txt").cache \\ contains "3\n4\n5\n6\n7"
> val z = sc.textFile("Z.txt").cache \\ contains "3\n9\n\10"
> val sets = Map("x" -> x, "y" -> y, "z" -> z)
> val query = Query[Int](sets)
现在,我可以使用不同的表达式调用查询。请注意,这里我使用collect 来触发评估(因此我们可以看到集合内的内容),但如果集合真的很大,您通常只需保持RDD 原样(并将其保存到磁盘) .
> query("a union b").collect
res: Array[Int] = Array("1", "2", "3", "4", "5", "6", "7")
> query("a inter b").collect
res: Array[Int] = Array("3", "4", "5")
> query("a inter b union ((a inter b) union a)").collect
res: Array[Int] = Array("1", "2", "3", "4", "5")
> query("c union a inter b").collect
res: Array[Int] = Array("3", "4", "5", "9", "10")
> query("(c union a) inter b").collect
res: Array[Int] = Array("3", "4", "5")
虽然我没有费心去实现它,但是set差异应该是一行加法(非常类似于union和inter)。我认为集合补集是个坏主意......它们并不总是有意义(空集的补集是什么,你如何表示它?)。