2.sqoop全量数据导入hive表

1.导入关系表到Hive中(需要手动创建好hive表)

(1) 将我们mysql表当中的数据直接导入到hive表中的话,需要将hive的一个叫做hive-exec-1.2.2.jar包拷贝到sqoop的lib目录下 

cp /opt/bigdata/hive-1.2.2/lib/hive-exec-1.2.2.jar  /opt/bigdata/sqoop-1.4.7.bin__hadoop-2.6.0/lib/

(2) 准备hive数据库与表, 在hive中创建一个数据库和表

create database sqooptohive;

create external table sqooptohive.mysql_emp_to_hive(id int,name string,deg string,salary double ,dept string) row format delimited fields terminated by '\001';

(3) 把mysql表数据导入到hive表中

sqoop import --connect jdbc:mysql://node2:3306/userdb --username root --password 123456 --table emp --fields-terminated-by '\001' --hive-import --hive-table sqooptohive.mysql_emp_to_hive --hive-overwrite  --m 1

(4) 执行完成了查看hive中表的数据

 

2.导入数据库表数据到hive中(并自动创建hive表)

可以通过下面的命令来将我们的mysql的表直接导入到hive表当中去,不需要事先创建hive表

sqoop import --connect jdbc:mysql://node2:3306/userdb --username root --password 123456  --hive-database sqooptohive --hive-table mysql_emp_to_hive2 --table emp --hive-import -m 1 ;

执行完成了查看hive中表的数据

对应的sqoop是把数据导入到hdfs hive数仓中 

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章