【发布时间】:2020-12-10 10:43:21
【问题描述】:
我正在尝试将文本文件读入 rdd
我的示例数据如下
"1" "Hai How are you!" "56"
"2" "0213"
3 列带有制表符分隔符。我的数据也嵌入了相同的分隔符(How areyou!)。有人可以帮我在 pyspark 中正确解析数据吗?
my_Rdd = Spark.SparkContext.textFile("Mytext.txt").map(lambda line:line.split('\t'))
当我执行上述代码时,我得到以下输出
ColA,ColB,Colc
"1","Hai,How are you!"
"2","0123"
第 2 列拆分为第 3 列,因为它在实际数据中具有相同的分隔符,并且对于第 2 行,第 3 值被映射到第 2 列
我的预期输出是
ColA,ColB,Colc
"1","Hai How are you!","56"
"2",,"0123"
在 Dataframe 中我可以保留引用选项,但我们如何在 RDD 中做同样的事情?
【问题讨论】:
标签: python apache-spark pyspark rdd