将 RDBMS 表导入 HDFS
sqoop import \
--connect <rdbms-jdbc-url> \
--username <username> \
--password <password> \
--table <table-name>
Mysql 示例:
sqoop import \
--connect jdbc:mysql://mysql.example.com/testdb \
--username root \
--password root \
--table employees
将在主目录下的 employees 目录下创建包含导入数据的 CSV 文件。
检查使用命令:
hadoop fs -cat <hdfs-home-dir>/employees/part-m-*
导入 HDFS 中的特定目录
sqoop import \
--connect jdbc:mysql://mysql.example.com/testdb \
--username root \
--password root \
--table emplyoees \
--target-dir /dev/data/employees
这将在/dev/data/employees
目录下生成 CSV 文件。
为 Sqoop 作业指定父 HDFS 目录
sqoop import \
--connect jdbc:mysql://mysql.example.com/testdb \
--username root \
--password root \
--table emplyoees \
--warehouse-dir /dev/warehouse/
上面命令中的 --warehouse-dir
标签会将你的主目录更改为/dev/warehouse/