【问题标题】:Import a mysql table (sqoop) directly in hive using --create-hive-table使用 --create-hive-table 直接在 hive 中导入 mysql 表 (sqoop)
【发布时间】:2017-05-29 19:48:39
【问题描述】:

我正在为 HDPCD 考试进行自我训练,因此我正在使用 MySQL 到 Hive 测试所有可能的导入和导出。在此示例中,我想从 MySQL 导入一个表,并使用参数 --create-hive-table 在 hive 中从头开始创建同一个表。虽然在[documentation][1] 中包含了它,但我找到了一个正确的例子来做到这一点。这个我试过了,还是不行

sqoop import --connect jdbc:mysql://master/poc --username root --table dept --where 'id_dept > 2' --hive-import --hive-database poc --hive-table deptv2 --create-hive-table true -m 1 --split-by id_dept

如果你们当中有人知道如何使用它,请告诉我。非常感谢

【问题讨论】:

    标签: mysql hadoop hadoop2 bigdata


    【解决方案1】:

    我回来了,因为我只需要再试一次,只需在没有任何输入的情况下输入参数,就可以了。无论如何,我会留下一个例子。可能它会帮助某人。

    sqoop import --connect jdbc:mysql://master/poc --username root \
      --table dept --where 'id_dept > 2' --hive-import \
      --hive-database poc --hive-table deptv2 --create-hive-table -m 1 --split-by id_dept
    

    谢谢。

    【讨论】: