【发布时间】:2024-01-14 06:57:01
【问题描述】:
我们有一个 FTP 服务器,每天都有很多文件上传到 FTP 服务器,我需要将所有这些文件复制到 HDFS 中。
每次它应该只下载增量文件,即如果它第一次下载了 10 个文件,然后 FTP 上传了 5 个新文件;在下一次工作迭代中,它应该只在 HDFS 中下载新的 5 个文件。
我们没有使用 Nifi 或 Kafka 连接。
我们有什么好的解决方案来完成这项任务吗?
【问题讨论】:
-
你在你的环境中使用 shell 脚本吗?
-
@roh 不,但是如果使用 shell 是优雅的解决方案,请讨论
-
@nilesh1212..您愿意分享您实施的解决方案的详细信息吗..我也遇到同样的问题..由于空间问题,我不想将我的文件 ftp 到本地