一、
函数式编程描述代码干什么而不是怎么干,python中代表性的如高阶函数map reduce filter
Hadoop是Apache开源大的一个分布式计算框架,核心设计就是MapRuduce和HDFS(Hadoop Distributed File System)
二、Spark
Spark是基于map reduce算法实现的分布式计算框架
Spark的中间输出和结果输出可以保存在内存中,从而不需要读写HDFS
Spark能更好的用于数据挖掘与机器学习等需要迭代的map reduce的算法中