【发布时间】:2015-09-14 10:09:42
【问题描述】:
我的理解是 Spark 是 Hadoop 的替代品。但是,当尝试安装 Spark 时,安装页面会要求安装现有的 Hadoop。我找不到任何可以澄清这种关系的东西。
其次,Spark 显然与 Cassandra 和 Hive 具有良好的连接性。两者都有sql风格的界面。但是,Spark 有自己的 sql。为什么要使用 Cassandra/Hive 而不是 Spark 的原生 sql?假设这是一个没有现有安装的全新项目?
【问题讨论】:
标签: hadoop cassandra apache-spark apache-spark-sql