【问题标题】:Converting Spark Dataframe to RDD in scala在scala中将Spark Dataframe转换为RDD
【发布时间】:2016-05-09 07:49:45
【问题描述】:

我正在寻找更好的方法将 Dataframe 转换为 RDD。现在我正在将数据帧转换为集合并循环集合以准备 RDD。但我们知道循环不是好习惯。

   val randomProduct = scala.collection.mutable.MutableList[Product]()
   val results = hiveContext.sql("select id,value from  details");
   val collection = results.collect();    
   var i = 0;
   results.collect.foreach(t => {
       val product = new Product(collection(i)(0).asInstanceOf[Long], collection(i)(1).asInstanceOf[String]); 
       i = i+ 1;
       randomProduct += product 
   })

   randomProduct
   //returns RDD[Product]

请建议我将其设为适用于大量数据的标准且稳定的格式。

【问题讨论】:

  • 一是海量数据和收集的不是很好的朋友,二是Loop,为什么?你想做什么:“转换+???”?
  • 谢谢以利亚。我需要 RDD[Product],我将使用它来应用一些规则。

标签: scala hadoop apache-spark apache-spark-sql


【解决方案1】:
val results = hiveContext.sql("select id,value from  details");
results.rdd.map( row => new Product( row.getLong(0), row.getString(1) ) ) // RDD[Product]

【讨论】:

  • 感谢您的回答。现在正在重新调整org.apache.spark.rdd.RDD[com.cloudera.mypacl.Product] but required is scala.collection.mutable.MutableList[com.cloudera.mypack.Product] 有没有办法可以将其转换为scala.collection.mutable.MutableList[com.cloudera.mypack.Product]
  • 你不想那样做。可变列表是一种本地内存结构,不适用于大量数据。如果这会很大,您希望将其保留为 RDD。
  • 谢谢史蒂夫。你是对的。现在我可以在不转换的情况下使用 RDD。
  • 有没有办法在不为每列指定数据类型的情况下创建 RDD,例如当我们有大量列时?
猜你喜欢
  • 2018-03-05
  • 2017-06-13
  • 2017-05-13
  • 2016-04-13
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 2019-05-14
相关资源
最近更新 更多