【问题标题】:<console>:25: error: object databricks is not a member of package com<console>:25: 错误:对象 databricks 不是包 com 的成员
【发布时间】:2019-08-11 00:46:40
【问题描述】:
我实际上是在使用 spark 和 scala 开发 zeppelin。我想导入包含:import com.databricks.spark.xml 的库。
我试过了,但在 zeppelin 错误中我仍然犯了同样的错误:<console>:25: error: object databricks is not a member of package com。
我实际上做了什么?我使用以下代码在 Zeppelin 中创建了一个注释:%dep
z.load("com.databricks:spark-xml_2.11:jar:0.5.0")。即使这样,解释器也不起作用。就像加载库没有成功一样。
你知道为什么它不起作用吗?
感谢您的帮助,祝您有愉快的一天!
【问题讨论】:
标签:
scala
apache-spark
apache-zeppelin
【解决方案1】:
您的问题很常见,解决起来并不直观。我解决了与此类似的问题(我想在 AWS EMR 中加载 postgres jdbc 连接器,并且我使用的是 linux 终端)。您的问题可以通过检查是否可以解决:
手动将 jar 文件加载到托管 Zeppelin 的环境中。
将 jar 文件的路径添加到您的 CLASSPATH 环境变量中。我不知道您将管理 CLASSPATH 环境的文件托管在哪里,但在 EMR 中,从 Zeppelin 根目录查看的我的文件位于:/usr/lib/zeppelin/conf/zeppelin-env.sh
下载 zeppelin 解释器
$ sudo ./bin/install-interpreter.sh --name "" --artifact
通过转到 Zeppelin 解释器 GUI 并添加解释器组,在 Zeppelin 中添加解释器。
重启 Zeppelin:
$ sudo stop zeppelin
$ sudo start zeppelin
您的配置很可能略有不同,但我希望这有助于提供一些结构和相关性。