【问题标题】:Zeppelin Null Pointer ExceptionZeppelin 空指针异常
【发布时间】:2018-09-02 21:00:57
【问题描述】:

我在我的 zeppelin notebook 中写了这个简单的代码

import org.apache.spark.sql.SQLContext
val sqlConext = new SQLContext(sc)
val df = sqlContext.read.format("csv").option("header", "true").load("hdfs:///user/admin/foo/2018.csv")
df.printSchema()

之前它无法找到 spark-csv。所以我将它添加为 spark1 和 spark2 解释器的依赖项。但是当我运行这段代码时,我得到一个错误

java.lang.NullPointerException
    at org.apache.zeppelin.spark.Utils.invokeMethod(Utils.java:38)
    at org.apache.zeppelin.spark.Utils.invokeMethod(Utils.java:33)
    at org.apache.zeppelin.spark.SparkInterpreter.open(SparkInterpreter.java:614)
    at org.apache.zeppelin.interpreter.LazyOpenInterpreter.open(LazyOpenInterpreter.java:69)
    at org.apache.zeppelin.interpreter.remote.RemoteInterpreterServer$InterpretJob.jobRun(RemoteInterpreterServer.java:493)
    at org.apache.zeppelin.scheduler.Job.run(Job.java:175)
    at org.apache.zeppelin.scheduler.FIFOScheduler$1.run(FIFOScheduler.java:139)

这个文件只有 300 行。所以我认为它不会导致任何内存问题。我有一个 4 节点集群,那么如何确定可能存在更详细错误的日志文件在哪里?

【问题讨论】:

  • 如果你使用 zeppelin 0.8 可以得到更清晰的错误信息

标签: apache-spark apache-zeppelin


【解决方案1】:

好的。我解决了。 Zeppelin 似乎使用了 Scala 2.10 我为 2.11 版添加了 Scala csv 的依赖项,导致空指针错误。

我将依赖项更改为 2.10 并重新启动解释器,现在它可以正常工作了。

【讨论】:

    猜你喜欢
    • 2016-04-26
    • 1970-01-01
    • 2015-07-12
    相关资源
    最近更新 更多