hive:table表中的數據的導出導出幾種方式(DML數據操作)

導入:

本地文件導入到Hive表;
Hive表導入到Hive表;
HDFS文件導入到Hive表;
創建表的過程中從其他表導入;
通過sqoop將mysql庫導入到Hive表
導出:

Hive表導出到本地文件系統;
Hive表導出到HDFS;
通過sqoop將Hive表導出到mysql庫;
.Hadoop命令導出到本地
Export導出到HDFS上
 
Hive數據導出的幾種方式:
1。Insert導出
1).將查詢的結果導出到本地
hive (default)> insert overwrite local directory '/opt/module/datas/export/student'
            select * from student;
指定導出格式(此種方式導出的數據不一定可用,可能還是textfile格式):
insert overwrite directory '/aaa/bb' stored as xxx select ...
 
2).將查詢的結果格式化導出到本地
hive(default)>insert overwrite local directory '/opt/module/datas/export/student1'
           ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t'             select * from student;
hive(default)>insert overwrite local directory '/opt/module/datas/export/student1'
           ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t'     collection items terminated by '\n'     select * from student;
 
3).將查詢的結果導出到HDFS上(沒有local)
hive (default)> insert overwrite directory '/user/atguigu/student2'
             ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' 
             select * from student;
2. Hadoop命令導出到本地
hive (default)> dfs -get /user/hive/warehouse/student/month=201709/000000_0
/opt/module/datas/export/student3.txt;
3. Hive Shell 命令導出
基本語法:(hive -f/-e 執行語句或者腳本 > file)
[root@sparkproject1 hive]$ bin/hive -e 'select * from default.student;' >
 /opt/module/datas/export/student4.txt;
4. Export導出到HDFS上
(defahiveult)> export table default.student to
 '/user/hive/warehouse/export/student';
export和import主要用於兩個Hadoop平臺集羣之間Hive表遷移。
5. Sqoop導出
 

實例:

1.hive shell

   1) 導出到本地目錄

1.登錄hive shell
hive (default)> 
 
2.use 數據庫;
 
3.指定本地目錄並導出
INSERT OVERWRITE LOCAL DIRECTORY '/user/local/hive/table-daochu' ROW FORMAT DELIMITED FIELDS TERMINATED by ',' select * from o.aim_base_employees;
查看數據結果:

-rw-r--r-- 1 root root 11132487 Feb 10 17:03 000000_0     //產生的結果存放在文件名爲:000000_0。
[root@pf-bigdata1 table-daochu]# 

可以使用editplus打開查看
   2)導出到HDFS

導入到HDFS和導入本地文件類似,去掉HQL語句的LOCAL就可以了

INSERT OVERWRITE DIRECTORY '/user/local/hive/table-daochu' ROW FORMAT DELIMITED FIELDS TERMINATED by ',' select * from o.aim_base_employees;
查看hfds輸出文件:

[hadoop@hadoopcluster78 bin]$ ./hadoop fs -cat /home/hadoop/output/000000_0 
2.採用hive的-e和-f參數來導出數據。

參數爲: -e 的使用方式,後面接SQL語句。>>後面爲輸出文件路徑

hive -e "select * from o.aim_base_employees" >> /user/local/hive/table-daochu/test.txt


參數爲: -f 的使用方式,後面接存放sql語句的文件。>>後面爲輸出文件路徑

testsql0.sql文件內容:
 
select * from o.aim_base_employees limit 1000;
 
執行:
hive -f testsql0.sql >> /user/local/hive/table-daochu/test1.txt
 

Hive數據導入的幾種方式:
準備測試文件:

  CREATE TABLE tmp.testA (  
    id INT,  
    name string,  
    area string  
) PARTITIONED BY (create_time string) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' STORED AS TEXTFILE;
  CREATE TABLE tmp.testB (  
    id INT,  
    name string,  
    area string,  
    code string  
) PARTITIONED BY (create_time string) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' STORED AS TEXTFILE; 
數據文件(sourceA.txt):

1,fish1,SZ  
2,fish2,SH  
3,fish3,HZ  
4,fish4,QD  
5,fish5,SR  
數據文件(sourceB.txt):

1,zy1,SZ,1001  
2,zy2,SH,1002  
3,zy3,HZ,1003  
4,zy4,QD,1004  
5,zy5,SR,1005  
(1)本地文件導入到Hive表

打開hive shell:
 
LOAD DATA LOCAL INPATH ' /user/local/hive/testdatas/sourceA.txt' INTO TABLE tmp.testA PARTITION(create_time='2020-02-10');
 
LOAD DATA LOCAL INPATH ' /user/local/hive/testdatas/sourceB.txt' INTO TABLE tmp.testB PARTITION(create_time='2020-02-10');
 
注意:
可以直接指定一個目錄,此目錄下的文件一次性全部導入:
LOAD DATA LOCAL INPATH ' /user/local/hive/testdatas' INTO TABLE tmp.testB PARTITION(create_time='2020-02-10');
查看導入結果:

select * from tmp.testA

select * from tmp.testB


注意:

如果創建表時加了分區語句 PARTITIONED BY (create_time string) 則load data 進表時也要加如PARTITION(create_time='2020-02-10')

如果創建表時沒有加分區語句,則load data數據進表時也不要加這個語句。

 

(2)HDFS文件導入到Hive表

將sourceA.txt和sourceB.txt傳到HDFS中,路徑分別是/home/hadoop/sourceA.txt和/home/hadoop/sourceB.txt中

hive> LOAD DATA INPATH '/home/hadoop/sourceA.txt' INTO TABLE testA PARTITION(create_time='2015-07-08');  
...(省略)  
OK  
Time taken: 0.237 seconds  
hive> LOAD DATA INPATH '/home/hadoop/sourceB.txt' INTO TABLE testB PARTITION(create_time='2015-07-09');  
<pre name="code" class="java">...(省略)  
OK  
Time taken: 0.212 seconds  
hive> select * from testA;  
OK  
  fish1   SZ  2015-07-08  
  fish2   SH  2015-07-08  
  fish3   HZ  2015-07-08  
  fish4   QD  2015-07-08  
  fish5   SR  2015-07-08  
Time taken: 0.029 seconds, Fetched: 5 row(s)  
hive> select * from testB;  
OK  
  zy1 SZ  1001    2015-07-09  
  zy2 SH  1002    2015-07-09  
  zy3 HZ  1003    2015-07-09  
  zy4 QD  1004    2015-07-09  
  zy5 SR  1005    2015-07-09  
Time taken: 0.047 seconds, Fetched: 5 row(s)
(3)Hive表導入到Hive表

hive (default)> INSERT INTO TABLE tmp.testA PARTITION(create_time='2020-02-10') select id, name, area from tmp.testB where id = 1;
select * from tmp.testA 

說明:

1,將testB中id=1的行,導入到testA,分區爲2020-02-10

2,將testB中id=2的行,導入到testA,分區create_time爲id=2行的code值。

/home/hadoop/sourceA.txt'導入到testA表

/home/hadoop/sourceB.txt'導入到testB表

(4)創建表的過程中從其他表導入

create table tmp.testC as select name, code from tmp.testB;
select * from tmp.testB

select * from tmp.testC

(5)

參考:

https://www.cnblogs.com/duanxz/p/9015937.html

 

尚:==============================================================================================

DML數據操作
5.1 數據導入
5.1.1 向表中裝載數據(Load)
1.語法

hive> load data [local] inpath '/opt/module/datas/student.txt' [overwrite] into table student [partition (partcol1=val1,…)];

(1)load data:表示加載數據

(2)local:表示從本地加載數據到hive表;否則從HDFS加載數據到hive表

(3)inpath:表示加載數據的路徑

(4)overwrite:表示覆蓋表中已有數據,否則表示追加

(5)into table:表示加載到哪張表

(6)student:表示具體的表

(7)partition:表示上傳到指定分區

2.實操案例

(0)創建一張表

hive (default)> create table student(id string, name string) row format delimited fields terminated by '\t';

(1)加載本地文件到hive

hive (default)> load data local inpath '/opt/module/datas/student.txt' into table default.student;

(2)加載HDFS文件到hive中

上傳文件到HDFS

hive (default)> dfs -put /opt/module/datas/student.txt /user/atguigu/hive;

加載HDFS上數據

hive (default)> load data inpath '/user/atguigu/hive/student.txt' into table default.student;

(3)加載數據覆蓋表中已有的數據

上傳文件到HDFS

hive (default)> dfs -put /opt/module/datas/student.txt /user/atguigu/hive;

加載數據覆蓋表中已有的數據

hive (default)> load data inpath '/user/atguigu/hive/student.txt' overwrite into table default.student;

5.1.2 通過查詢語句向表中插入數據(Insert)
1.創建一張分區表

hive (default)> create table student(id int, name string) partitioned by (month string) row format delimited fields terminated by '\t';

2.基本插入數據

hive (default)> insert into table  student partition(month='201709') values(1,'wangwu'),(2,’zhaoliu’);

3.基本模式插入(根據單張表查詢結果)

hive (default)> insert overwrite table student partition(month='201708')

             select id, name from student where month='201709';

insert into:以追加數據的方式插入到表或分區,原有數據不會刪除

insert overwrite:會覆蓋表或分區中已存在的數據

注意:insert不支持插入部分字段

4.多表(多分區)插入模式(根據多張表查詢結果)

hive (default)> from student

              insert overwrite table student partition(month='201707')

              select id, name where month='201709'

              insert overwrite table student partition(month='201706')

              select id, name where month='201709';

5.1.3 查詢語句中創建表並加載數據(As Select)
詳見4.5.1章創建表。

根據查詢結果創建表(查詢的結果會添加到新創建的表中)

create table if not exists student3

as select id, name from student;

5.1.4 創建表時通過Location指定加載數據路徑
1.上傳數據到hdfs上

hive (default)> dfs -mkdir /student;

hive (default)> dfs -put /opt/module/datas/student.txt /student;

2. 創建表,並指定在hdfs上的位置

hive (default)> create external table if not exists student5(

              id int, name string

              )

              row format delimited fields terminated by '\t'

              location '/student;

3.查詢數據

hive (default)> select * from student5;

5.1.5 Import數據到指定Hive表中
注意:先用export導出後,再將數據導入。

hive (default)> import table student2 partition(month='201709') from

 '/user/hive/warehouse/export/student';

5.1.6

 

5.2 數據導出
5.2.1 Insert導出
1.將查詢的結果導出到本地

hive (default)> insert overwrite local directory '/opt/module/datas/export/student'

            select * from student;

2.將查詢的結果格式化導出到本地

hive(default)>insert overwrite local directory '/opt/module/datas/export/student1'

           ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t'             select * from student;

3.將查詢的結果導出到HDFS上(沒有local)

hive (default)> insert overwrite directory '/user/atguigu/student2'

             ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t'

             select * from student;

5.2.2 Hadoop命令導出到本地
hive (default)> dfs -get /user/hive/warehouse/student/month=201709/000000_0

/opt/module/datas/export/student3.txt;

5.2.3 Hive Shell 命令導出
基本語法:(hive -f/-e 執行語句或者腳本 > file)

[atguigu@hadoop102 hive]$ bin/hive -e 'select * from default.student;' >

 /opt/module/datas/export/student4.txt;

5.2.4 Export導出到HDFS上
(defahiveult)> export table default.student to

 '/user/hive/warehouse/export/student';

export和import主要用於兩個Hadoop平臺集羣之間Hive表遷移。

5.2.5 Sqoop導出
後續課程專門講。

5.3 清除表中數據(Truncate)
注意:Truncate只能刪除管理表,不能刪除外部表中數據

hive (default)> truncate table student;
————————————————
 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章