【问题标题】:Spark2.4.6 without hadoop: A JNI error has occurred没有hadoop的Spark2.4.6:发生了JNI错误
【发布时间】:2020-12-01 17:50:58
【问题描述】:

在我的 Windows 机器上,我正在尝试使用 spark 2.4.6 而不使用 hadoop - spark-2.4.6-bin-without-hadoop-scala-2.12.tgz

在设置 SPARK_HOME、HADOOP_HOME 和 SPARK_DIST_CLASSPATH 后,使用链接 here 的帖子中的信息

当我尝试启动 spark-shell 时,出现此错误 -

Error: A JNI error has occurred, please check your installation and try again
Exception in thread "main" java.lang.NoClassDefFoundError: org/slf4j/Logger
        at java.lang.Class.getDeclaredMethods0(Native Method)
        at java.lang.Class.privateGetDeclaredMethods(Class.java:2701)
        at java.lang.Class.privateGetMethodRecursive(Class.java:3048)
        at java.lang.Class.getMethod0(Class.java:3018)
        at java.lang.Class.getMethod(Class.java:1784)
        at sun.launcher.LauncherHelper.validateMainClass(LauncherHelper.java:544)
        at sun.launcher.LauncherHelper.checkAndLoadMain(LauncherHelper.java:526)
Caused by: java.lang.ClassNotFoundException: org.slf4j.Logger
        at java.net.URLClassLoader.findClass(URLClassLoader.java:381)
        at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
        at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:335)
        at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
        ... 7 more

上面引用的链接似乎和许多其他链接都指向 SPARK_DIST_CLASSPATH ,但我的系统变量中已经有这个 -

$HADOOP_HOME;$HADOOP_HOME\etc\hadoop*;$HADOOP_HOME\share\hadoop\common\lib*;$HADOOP_HOME\share\hadoop\common*;$HADOOP_HOME\share\hadoop\hdfs*;$HADOOP_HOME\share \hadoop\hdfs\lib*;$HADOOP_HOME\share\hadoop\hdfs*;$HADOOP_HOME\share\hadoop\yarn\lib*;$HADOOP_HOME\share\hadoop\yarn*;$HADOOP_HOME\share\hadoop\mapreduce\lib *;$HADOOP_HOME\share\hadoop\mapreduce*;$HADOOP_HOME\share\hadoop\tools\lib*;

我在spark的spark-env.sh中也有这一行-

export SPARK_DIST_CLASSPATH=$(C:\opt\spark\hadoop-2.7.3\bin\hadoop classpath)
HADOOP_HOME = C:\opt\spark\hadoop-2.7.3
SPARK_HOME = C:\opt\spark\spark-2.4.6-bin-without-hadoop-scala-2.12

当我尝试 hadoop 附带的 spark 2.4.5 时,似乎工作得很好。这告诉我我设置 hadoop 的方式有问题。我在这里想念什么? 谢谢!

【问题讨论】:

    标签: apache-spark hadoop


    【解决方案1】:

    找到了解决方案here

    1. 转到您的~/.bashrc
    2. 添加export SPARK_DIST_CLASSPATH=$(hadoop classpath)
    3. 应用环境使用source ~/.bashrc

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 1970-01-01
      • 2017-06-21
      • 2018-10-14
      • 2019-06-05
      • 1970-01-01
      • 1970-01-01
      • 2020-10-10
      相关资源
      最近更新 更多