1.導入關係表到Hive中(需要手動創建好hive表)
(1) 將我們mysql表當中的數據直接導入到hive表中的話,需要將hive的一個叫做hive-exec-1.2.2.jar包拷貝到sqoop的lib目錄下
cp /opt/bigdata/hive-1.2.2/lib/hive-exec-1.2.2.jar /opt/bigdata/sqoop-1.4.7.bin__hadoop-2.6.0/lib/
(2) 準備hive數據庫與表, 在hive中創建一個數據庫和表
create database sqooptohive;
create external table sqooptohive.mysql_emp_to_hive(id int,name string,deg string,salary double ,dept string) row format delimited fields terminated by '\001';
(3) 把mysql表數據導入到hive表中
sqoop import --connect jdbc:mysql://node2:3306/userdb --username root --password 123456 --table emp --fields-terminated-by '\001' --hive-import --hive-table sqooptohive.mysql_emp_to_hive --hive-overwrite --m 1
(4) 執行完成了查看hive中表的數據
2.導入數據庫表數據到hive中(並自動創建hive表)
可以通過下面的命令來將我們的mysql的表直接導入到hive表當中去,不需要事先創建hive表
sqoop import --connect jdbc:mysql://node2:3306/userdb --username root --password 123456 --hive-database sqooptohive --hive-table mysql_emp_to_hive2 --table emp --hive-import -m 1 ;
執行完成了查看hive中表的數據
對應的sqoop是把數據導入到hdfs hive數倉中