【发布时间】:2016-12-08 21:35:51
【问题描述】:
我试图从 RDD 中过滤空值但失败了。这是我的代码:
val hBaseRDD = sc.newAPIHadoopRDD(conf, classOf[TableInputFormat],
classOf[org.apache.hadoop.hbase.io.ImmutableBytesWritable],
classOf[org.apache.hadoop.hbase.client.Result])
val raw_hbaserdd = hBaseRDD.map{
kv => kv._2
}
val Ratings = raw_hbaseRDD.map {
result => val x = Bytes.toString(result.getValue(Bytes.toBytes("data"),Bytes.toBytes("user")))
val y = Bytes.toString(result.getValue(Bytes.toBytes("data"),Bytes.toBytes("item")))
val z = Bytes.toString(result.getValue(Bytes.toBytes("data"),Bytes.toBytes("rating")))
(x,y, z)
}
Ratings.filter ( x => x._1 != null )
Ratings.foreach(println)
调试时,过滤器后仍出现空值:
(3359,1494,4)
(null,null,null)
(28574,1542,5)
(null,null,null)
(12062,1219,5)
(14068,1459,3)
有更好的主意吗?
【问题讨论】:
-
你做错了。 Ratings.filter(x=>x._1 != null).foreach(println) 将起作用
-
val filteredRatings = Ratings.filter ( x => x._1 != null )和filteredRatings.foreach(println)。
标签: scala hadoop apache-spark bigdata