SparkSession.createDataFrame,在后台使用,需要 Row/tuple/list/dict* 或 @987654328 的 RDD / list @,除非提供了带有 DataType 的架构。尝试像这样将浮点数转换为元组:
myFloatRdd.map(lambda x: (x, )).toDF()
甚至更好:
from pyspark.sql import Row
row = Row("val") # Or some other column name
myFloatRdd.map(row).toDF()
要从标量列表创建DataFrame,您必须直接使用SparkSession.createDataFrame 并提供架构***:
from pyspark.sql.types import FloatType
df = spark.createDataFrame([1.0, 2.0, 3.0], FloatType())
df.show()
## +-----+
## |value|
## +-----+
## | 1.0|
## | 2.0|
## | 3.0|
## +-----+
但对于一个简单的范围,最好使用SparkSession.range:
from pyspark.sql.functions import col
spark.range(1, 4).select(col("id").cast("double"))
* 不再支持。
** Spark SQL 还对暴露 __dict__ 的 Python 对象的模式推断提供有限支持。
*** 仅在 Spark 2.0 或更高版本中受支持。