【问题标题】:Knime HDFS connection node not workingKnime HDFS 连接节点不工作
【发布时间】:2018-06-28 17:59:24
【问题描述】:

目标:将 csv 加载到 hive/impala/hdfs 表 工具:刀 设想: 我正在使用表创建器(只有 1 行有 1 个值)、HIve 连接器(它可以毫无问题地连接到主机)、HDFS 连接和配置单元加载器。 当我使用主机和端口信息与配置单元连接器相同的配置单元加载程序配置 HDFS 连接节点时,出现错误: 执行失败:本地主机之间的文件异常结束是:“Cyuyuyu/xxx.xxx.x.xxx”;目的主机是:“xxxnode04.xx.xx.com”:21050; : java.io.EOFException;更多详情请见:http://wiki.apache.org/hadoop/EOFException

我做错了什么? 提前致谢。

【问题讨论】:

    标签: knime


    【解决方案1】:

    当我使用 hive 加载器配置 HDFS 连接节点时,主机和端口信息与 hive 连接器相同

    HDFS 和 Hive 的端口不一样。检查目标计算机上配置了哪个端口 HDFS 并使用此端口。

    【讨论】:

    • 感谢您的回复和帮助。是的,我试过了,但出现错误:Connection to hdfs://user@xxx.xx.xx.com:8020 failed SIMPLE authentication is not enabled。可用:[TOKEN,KERBEROS] 当我使用 KERBEROS 时:连接到 hdfs:///user@xxx.xx.xx.com:8020 failed failure to login using ticket cache file null
    • 我需要配置 Kerberos 客户端来实现这个吗?
    • 是的,如果您要连接到 Kerberos 安全集群,您必须在运行连接节点之前配置您的 kerbveros 客户端并获取电子票证。
    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 2019-07-28
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2019-10-29
    相关资源
    最近更新 更多