【发布时间】:2019-01-16 12:10:22
【问题描述】:
以前我们有三个节点集群,一个 DC 中有两个 Cassandra 节点数据中心,另一个 DC 中有一个启用 spark 的节点。 Spark 在该配置中运行平稳。 然后我们尝试在启用了 spark 的情况下在分析 dc 中添加另一个节点。我们已经配置了 GossipingPropertyFileSnitch 并添加了种子。 但是现在当我们启动集群时,spark master 被分别分配给两个节点。所以火花作业仍然在单个节点上运行。关于在集群中运行 spark 作业,我们缺少哪些配置?
【问题讨论】:
标签: apache-spark cassandra datastax datastax-enterprise spark-cassandra-connector