【sqoop】Linux環境下使用一個腳本將hive數據導出到mysql

文件名:sqoop_export_emp.sh,內容如下:

#!/bin/sh

queueName=
job_name=

#mysql
mysql_name=system
mysql_passwd=111111
mysql_conn=jdbc:mysql://192.168.1.120:3306/mtest

#目的表名:mysql表名
export_table_name=emp_t;

#目的表列名:mysql表列名
export_table_columns="id,name,deg,salary,dept"

#導出到mysql的臨時文件名
sqoop_export_data_filename=${export_table_name};

#刪除目的數據庫的數據
sqoop eval --connect ${mysql_conn}          \
--username ${mysql_name}                    \
--password ${mysql_passwd}                  \
-query "
        delete from ${export_table_name} where 1=1
"

#需要導出到mysql的數據臨時文件目錄
sqoop_export_data_dir=/user/hive/warehouse/htest/export/${sqoop_export_data_filename};

#刪除臨時目錄,支持二次運行
hadoop dfs -rmr ${sqoop_export_data_dir}

hive -v -e "
use htest;
insert overwrite directory '${sqoop_export_data_dir}'
select id
      ,name
      ,deg
      ,salary
      ,dept
  from htest.emp;
";

##set mapred.job.queue.name=${queueName};
##set mapred.job.name=${job_name}_1;

#再導出數據到目的庫(mysql)
sqoop export                                \
--connect ${mysql_conn}                     \
--username ${mysql_name}                    \
--password ${mysql_passwd}                  \
--export-dir ${sqoop_export_data_dir}       \
--verbose                                   \
--num-mappers 3                             \
--table ${export_table_name}                \
--columns ${export_table_columns}           \
--input-fields-terminated-by '\001'         \
--input-lines-terminated-by '\n'            \
--input-null-string '\\N'                   \
--input-null-non-string '\\N';

##########
#-Dmapred.job.queue.name=${queueName}
#
##########

然後執行腳本

sh

sqoop_export_emp.sh

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章