【发布时间】:2021-01-16 01:42:36
【问题描述】:
private static final org.apache.log4j.Logger LOGGER = org.apache.log4j.Logger.getLogger(sparkSqlMysql.class);
private static final SparkSession sparkSession = SparkSession.builder().master("local[*]").appName("Spark2JdbcDs")
.getOrCreate();
public static void main(String[] args) {
// JDBC connection properties
// Load MySQL query result as Dataset
Dataset<Row> df = sparkSession.readStream().format("kafka").option("kafka.bootstrap.servers", "localhost:9092")
.option("subscribe", "SqlMessages").load();
我想做一些事情,我可以从我的 kafka 主题中读取我的 spark SQL 中的数据,但不能这样做。
谁能指导我将我的数据从 kafka 主题转换为 spark SQL 吗?
我能做到的事情
Dataset<Row> schoolData = sparkSession.sql("select * from Schools");
【问题讨论】:
标签: apache-spark apache-spark-sql spark-streaming