最近在写linux使用kettle的定时转换方法,碰见了很恶心的问题

原本流程是从本地读取文件到hdfs

但是一直提示无法找到hdfs位置

kettle linux hadoop 一些问题

猜测原因是转换中的

kettle linux hadoop 一些问题

这个相冲突,导致存储地址出现问题

解决方法很简单,新建个转换,将读取文件操作放在里面,最后job运行时带上这个转换就可以了

至于linux下读取存放文件路径问题,可以参考如下方法

kettle linux hadoop 一些问题

其中一定要设置文件编码为GBK,不然文件保存到hdfs里会成乱码


相关文章:

  • 2021-10-19
  • 2021-10-27
  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
  • 2021-12-09
  • 2021-12-12
猜你喜欢
  • 2021-08-29
  • 2021-12-16
  • 2022-01-02
  • 2022-01-02
  • 2022-12-23
  • 2022-12-23
  • 2021-11-12
相关资源
相似解决方案