【发布时间】:2016-05-01 23:13:36
【问题描述】:
现在,在我当前的架构中,我有一个模块负责向 Cassandra 写入/读取数据,以及负责下载数据的模块。最近我开始使用 Datastax 和 Spark。我想对新获取的数据进行一些转换。对这个问题有什么正确的看法?我是使用我的模块存储数据并单独进行 Spark 计算,还是使用 Spark Streaming 将下载的数据直接发送到 Spark,并在作业中将原始数据和转换后的数据都保存到 Cassandra?我正在对股票报价进行操作,因此需要不断下载大量数据并进行大量转换。
【问题讨论】:
标签: java apache-spark cassandra spark-streaming datastax