原创 Python使用paramiko模塊實現遠程執行
1、安裝模塊 [root@spark ~]# pip install paramiko 2、py腳本 [root@spark ~]# cat run_job_remote.py #!/usr/bin/env python #enco
原创 Centos7 修改內核引導順序
注:CentOS 7 使用 grub2 作爲引導程序。 1、查看系統內部內核數: cat /boot/grub2/grub.cfg |grep menuentry 2、配置從默認內核啓動: grub2-set-default "Ce
原创 Zeppelin部署
1、下載 http://mirror.bit.edu.cn/apache/zeppelin/zeppelin-0.8.1/zeppelin-0.8.1-bin-netinst.tgz 2、解壓 tar zxvf zeppelin-0.8
原创 spark操作hive
1、下載spark並解壓 wget http://mirrors.tuna.tsinghua.edu.cn/apache/spark/spark-2.3.4/spark-2.3.4-bin-hadoop2.6.tgz tar zxvf
原创 Load CSV File to Hive
1、創建表 CREATE TABLE t_user ( id INT, username STRING, password STRING ) ROW FORMAT SERDE 'org.apache.hadoop.hive.se
原创 Apache Ranger安裝部署
1、下載 $ git clone https://github.com/apache/incubator-ranger.git $ cd incubator-ranger $ git checkout ranger-1.2 2、編譯
原创 CentOS 7 中 YUM安裝桌面環境
我的Centos7是最小化安裝的 1、首先要先安裝X Windows: # yum upgrade # yum -y groupinstall "X Window System" 2、安裝KDE環境: # yum -y groups
原创 DBeaver訪問不了kerberos環境的hive
1、錯誤:unsupported key type found the default TGT: 18 * 原因:這個是AES256加密算法,需要安裝JCE POLICY。 * 解決辦法: 1)下面地址下載JCE包: http
原创 Hive無法讀取Parquet
查詢Hive表,報錯:Failed with exception java.io.IOException:parquet.io.ParquetDecodingException: Can not read value at 0 in bl
原创 CentOS 常用命令整理
1、網絡命令: (1)網卡地址 [spark@master ~]$ ip add 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group def
原创 Centos7 配置ISO鏡像文件爲本地YUM源
1)創建掛載路徑 sudo mkdir /media/iso 2)掛載ISO鏡像到目錄 sudo mount -o loop CentOS-7-x86_64-Minimal-1708.iso /media/iso 3)驗證掛載 df
原创 Centos7 使用阿里雲的YUM源
1)備份yum源 mv /etc/yum.repos.d/CentOS-Base.repo /etc/yum.repos.d/CentOS-Base.repo.bak 2)下載阿里雲的CentOS-Base.repo wget -O
原创 docker swarm集羣搭建以及安裝shipyard
1)docker安裝 https://blog.csdn.net/kanaka10/article/details/94552323 2)配置swarm集羣 $ sudo docker swarm init --advertise-ad
原创 Docker 安裝部署
1) 使用yum 安裝yum-utils sudo yum install -y yum-utils 2) 增加docker源 sudo yum-config-manager \ --add-repo \ https://downl