2.sqoop全量數據導入hive表

1.導入關係表到Hive中(需要手動創建好hive表)

(1) 將我們mysql表當中的數據直接導入到hive表中的話,需要將hive的一個叫做hive-exec-1.2.2.jar包拷貝到sqoop的lib目錄下 

cp /opt/bigdata/hive-1.2.2/lib/hive-exec-1.2.2.jar  /opt/bigdata/sqoop-1.4.7.bin__hadoop-2.6.0/lib/

(2) 準備hive數據庫與表, 在hive中創建一個數據庫和表

create database sqooptohive;

create external table sqooptohive.mysql_emp_to_hive(id int,name string,deg string,salary double ,dept string) row format delimited fields terminated by '\001';

(3) 把mysql表數據導入到hive表中

sqoop import --connect jdbc:mysql://node2:3306/userdb --username root --password 123456 --table emp --fields-terminated-by '\001' --hive-import --hive-table sqooptohive.mysql_emp_to_hive --hive-overwrite  --m 1

(4) 執行完成了查看hive中表的數據

 

2.導入數據庫表數據到hive中(並自動創建hive表)

可以通過下面的命令來將我們的mysql的表直接導入到hive表當中去,不需要事先創建hive表

sqoop import --connect jdbc:mysql://node2:3306/userdb --username root --password 123456  --hive-database sqooptohive --hive-table mysql_emp_to_hive2 --table emp --hive-import -m 1 ;

執行完成了查看hive中表的數據

對應的sqoop是把數據導入到hdfs hive數倉中 

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章