【问题标题】:Sagemaker PySpark: Kernel DeadSagemaker PySpark:内核死机
【发布时间】:2018-06-07 02:17:12
【问题描述】:

我按照说明 here 设置了 EMR 集群和 SageMaker 笔记本。在最后一步之前我没有任何错误。

当我在 Sagemaker 中打开新笔记本时,我收到以下消息:

The kernel appears to have died. It will restart automatically.

然后:

        The kernel has died, and the automatic restart has failed.
        It is possible the kernel cannot be restarted. 
        If you are not able to restart the kernel, you will still be able to save the 
notebook, but running code will no longer work until the notebook is reopened.

这只发生在我使用 pyspark/Sparkmagic 内核时。使用 Conda 内核或任何其他内核打开的笔记本工作正常。

我的 EMR 集群完全按照说明进行设置,并添加了一条规则:

[
  {
    "Classification": "spark",
    "Properties": {
      "maximizeResourceAllocation": "true"
    }
  }
]

我很感激任何关于为什么会发生这种情况以及如何调试/修复的指示。

P.S.:我过去成功地做到了这一点,没有任何问题。当我今天尝试重新执行此操作时,我遇到了这个问题。我尝试重新创建 EMR 集群和 Sagemaker 笔记本,但这并没有帮助。

【问题讨论】:

    标签: pyspark jupyter amazon-sagemaker


    【解决方案1】:

    感谢您使用 Amazon SageMaker。

    这里的问题是 Pandas 0.23.0 更改了名为 DataError 的核心类的位置,并且 SparkMagic 尚未更新为需要来自正确命名空间的 DataError。

    解决此问题的方法是使用pip install pandas==0.22.0 降级 SageMaker Notebook 实例中的 Pandas 版本。

    您可以在这个开放的 github 问题https://github.com/jupyter-incubator/sparkmagic/issues/458 中获得更多信息。

    如果还有其他可以提供帮助的方式,请告诉我们。

    谢谢,
    尼拉姆

    【讨论】:

      猜你喜欢
      • 2019-03-02
      • 1970-01-01
      • 1970-01-01
      • 2016-01-03
      • 1970-01-01
      • 2020-10-03
      • 2022-01-07
      • 2021-06-11
      • 1970-01-01
      相关资源
      最近更新 更多