【发布时间】:2021-11-24 09:49:20
【问题描述】:
我正在为 azure sql 在 azure databricks 中创建元存储。我已使用 7.3 运行时为集群配置提供以下命令。如文档中所述 https://docs.microsoft.com/en-us/azure/databricks/data/metastores/external-hive-metastore#spark-options
spark.hadoop.javax.jdo.option.ConnectionDriverName com.microsoft.sqlserver.jdbc.SQLServerDriver
spark.hadoop.javax.jdo.option.ConnectionURL jdbc:sqlserver://xxx.database.windows.net:1433;database=hivemetastore
spark.hadoop.javax.jdo.option.ConnectionUserName xxxx
datanucleus.fixedDatastore false
spark.hadoop.javax.jdo.option.ConnectionPassword xxxx
datanucleus.autoCreateSchema true
spark.sql.hive.metastore.jars builtin
spark.sql.hive.metastore.version 1.2.1
hive.metastore.schema.verification.record.version false
hive.metastore.schema.verification false
--
之后,当我尝试创建数据库元存储时,我将自动取消。 我在数据块中的数据部分出现错误,我也无法复制。
命令
【问题讨论】:
-
你需要检查驱动日志,还要检查防火墙
-
你好 Alex sql server 的防火墙 我已经添加了我的 ip。有什么我可以检查的。
-
你需要添加集群中所有节点的IP。请发布驱动程序日志
-
HiveConf:找到配置文件文件:/databricks/hive/conf/hive-site.xml SessionState:创建HDFS目录:/tmp/hive/root/86-43-7590b1 SessionState:创建本地目录:/local_disk0/tmp/root/89a4-4243-8633-7747450590b1 SessionState:创建的HDFS目录:/tmp/hive/root/86b-4243-863390b1/_tmp_space.db HiveClientImpl:Hive客户端的仓库位置(版本2.3.7)是 /user/hive/warehouse Hive:Databricks:在 init 期间调用 reloadFunctions 调用。 HiveConf:名称为 hive.stats.jdbc.timeout 的 HiveConf 不存在 HiveConf:名称为 hive.stats.retries.wait 的 HiveConf 不存在
-
您好,我可以连接到 sql server。我可以看到一些表,如 dbo.database_params、dbo.dbs、dbo.roles 以及更多的创建。但是当我尝试在 csv 的数据块中创建一个简单的表时。我收到一个错误 org.apache.hadoop.hive.ql.metadata.HiveException: MetaException(message:An exception was throwed while adding/validating class(es) : The size (32672) given to the column 'PARAM_VALUE' 超过任何数据类型允许的最大值 (8000)。-
标签: apache-spark hadoop azure-sql-database azure-databricks hive-metastore