【发布时间】:2018-03-31 06:02:57
【问题描述】:
我们正在尝试使用 Cloudera Distribution 配置和设置 Azure Data Lake。 按照官方文档,我能够从 CHD 到 ADLS 进行 distcp、put 等操作,反之亦然。
最近我想看看我们是否可以使用 sqoop-import 在数据湖和 sql db 之间移动数据,而无需启动 hdinsight 集群以降低所涉及的成本。
hadoop --config /home/userTest/adl_conf sqoop-import --connect "jdbc:sqlserver://xxxxx.yyyy.org:1433;username=xxxx;password=*****;database=xxxx" --table TEST_SQOOP --target-dir adl://xxxx.azuredatalakestore.net/some/path/toPUT
我已经将文件放在 /opt/cloudera/parcels/CDH/lib/hadoop/lib 文件夹中:
ls -lrt /opt/cloudera/parcels/CDH/lib/hadoop/lib
lrwxrwxrwx 1 root root 30 Mar 28 19:47 sqoop-1.4.6.jar -> /opt/sqoop/lib/sqoop-1.4.6.jar
lrwxrwxrwx 1 root root 30 Mar 28 19:47 sqoop-tools.jar -> /opt/sqoop/lib/sqoop-tools.jar
仍然不确定我错过了什么,非常感谢任何帮助。
谢谢
【问题讨论】:
-
您遇到的错误是什么?
-
错误:无法找到或加载主类 sqoop-import
-
尝试回显 SQOOP_HOME 并检查您是否获得了放置 jar 的库的位置
-
我解决了这个问题,问题是我创建了不正确的符号链接,导致了这个问题,还原更改并重试解决了它。
标签: azure hadoop cloudera-cdh sqoop