【发布时间】:2019-10-31 15:54:19
【问题描述】:
我正在尝试将 GCP(Google Big Query)与 Spark(使用 pyspark)连接,而不使用 Dataproc(内部自托管 Spark),如 google 官方文档中所列,它仅适用于 Dataproc https://cloud.google.com/dataproc/docs/tutorials/bigquery-connector-spark-example?有什么建议吗?注意:我在 Docker 上的 Spark 和 Hadoop 设置。谢谢
【问题讨论】:
标签: python apache-spark google-cloud-platform pyspark google-bigquery