【发布时间】:2020-03-02 15:19:34
【问题描述】:
从语义上讲,spark 是一个框架。
1)Pyspark 只是对用 scala 编写的函数的类 python 调用者的集合?
如果我定义自己的一组函数而不是像这样的标准函数:
def sum(a,b):
return a+b
def subtract(a,b):
return a-b
并使用它们而不是常规:
c = a+b
c = sum(a,b)
这是否类似于pyspark内部工作机制的本质? 对于那些不了解 Scala 但想立即开始使用 spark 的人来说,Pyspark 的语法基本类似?
2) 如果我在 spark 上使用 python - 那么我使用的是 pyspark。 关于 pyspark 的 2 个陈述是否正确?
【问题讨论】:
-
你读过PySpark Internals吗?
-
@ernest_k,老实说不,我想我会在堆栈溢出时得到一个简洁准确的答案..
标签: apache-spark pyspark