【发布时间】:2021-03-27 19:29:24
【问题描述】:
这个代码给了我一个“int object is not subscriptable”的错误,尽管它为我的一个朋友工作。错误出现在我尝试使用 reduceByKey 计算平均值的第 4 行。这是为什么呢?
nonNullRDD = marchRDD.filter(lambda row: row.journal).filter(lambda row: row.abstract)
abstractRDD = nonNullRDD.map(lambda field: (field.journal, field.abstract))
splitRDD = abstractRDD.map(lambda word: (word[0], len(word[1].split(" "))))
groupedRDD = splitRDD.reduceByKey(lambda x, y: (x[0]+y[0], x[1]+y[1])).mapValues(lambda x: x[0]/x[1])
【问题讨论】:
标签: apache-spark pyspark rdd