【发布时间】:2017-11-09 13:28:34
【问题描述】:
我们正在 Apache Hadoop YARN 上运行 Spark 作业。我特别需要在这些工作上使用“LD_PRELOAD 技巧”。 (在任何人恐慌之前,它不是用于生产运行;这是自动化作业测试的一部分)。
我知道如何在作业中提交附加文件,并且我知道如何在节点上设置环境变量,因此将这些设置添加到spark-defaults.conf 几乎可以提供解决方案:
spark.files=/home/todd/pwn_connect.so
spark.yarn.appMasterEnv.LD_PRELOAD=pwn_connect.so
spark.executorEnv.LD_PRELOAD=pwn_connect.so
但我在容器日志中收到此错误:
ERROR: ld.so: object 'pwn_connect.so' from LD_PRELOAD cannot be preloaded: ignored.
问题似乎是 LD_PRELOAD 不接受我提供的相对路径。但我不知道如何提供绝对路径——我不知道这些文件被放置在节点的本地文件系统的哪个位置。
【问题讨论】:
标签: hadoop apache-spark hadoop-yarn ld-preload