【发布时间】:2021-08-26 16:25:26
【问题描述】:
当我从 Databricks 将数据写入 Azure 中的 SQL DW 时,我使用以下代码:
example1.write.format("com.databricks.spark.sqldw").option("url", sqlDwUrlSmall).option("dbtable", "SampleTable12").option("forward_spark_azure_storage_credentials","True") .option("tempdir", tempDir).mode("overwrite").save()
这不适用于 Synapse Notebook 中的 Notebook。我得到了错误:
Py4JJavaError: An error occurred while calling o174.save.
: java.lang.ClassNotFoundException: Failed to find data source: com.databricks.spark.sqldw. Please find packages at http://spark.apache.org/third-party-projects.html
at org.apache.spark.sql.execution.datasources.DataSource$.lookupDataSource(DataSource.scala:656) Caused by: java.lang.ClassNotFoundException: com.databricks.spark.sqldw.DefaultSource
基本上,对于 Azure Synapse 中的 Apache Spark,我需要知道 com.databricks.spark.sqldw 的等价物。
谢谢
【问题讨论】:
标签: azure-databricks azure-synapse