原创 Nginx+Keeplived+Tomcat搭建高可用/負載均衡的web服務器集羣

一、集羣規劃服務器角色主機名IP地址/VIP軟件Nginx MasterNK120.0.20.101/20.0.20.100Nginx/KeepalivedNginx BackupNK220.0.20.102/20.0.20.100Ngin

原创 PSSH使用

一、PSSH的安裝1.首先需要配置節點之間的SSH,然後在其中一個節點上安裝2.安裝epelyum -y install epel-release3.安裝pssh[root@slave1 ~]# yum -y install pssh二、P

原创 Cobbler自動裝機配置

一、環境準備1.系統環境[root@vm1 ~]# cat /etc/centos-release CentOS Linux release 7.4.1708 (Core)  [root@vm1 ~]# getenforce  Disabl

原创 HA 模式下的 Hadoop2.7.4+ZooKeeper3.4.10搭建

一、概述本次實驗採用VMware虛擬機,linux版本爲CentOS7;因爲實驗所需的5臺機器配置大多相同,所以採用配置其中一臺,然後使用克隆功能複製另外4份再做具體修改;其中有些步驟以前配置過,此處就說明一下不再做具體配置,具體配置可翻閱

原创 OpenStack Pike Minimal安裝:一、環境準備

1.關閉防火牆和selinux 2.配置hosts [root@compute ~]# cat /etc/hosts 127.0.0.1 localhost localhost.localdomain localhost4 localh

原创 OpenStack Pike Minimal安裝:三、鏡像管理

1.創建服務憑據 #先使用腳本登陸admin [root@controller ~]# . admin-openstack.sh ①創建glance user openstack user create --domain default

原创 hadoop-2.7.4編譯安裝

1.protobuf編譯安裝[root@hadoop1 ~]# yum install svn autoconf automake libtool cmake ncurses-devel openssl-devel gcc* [root@h

原创 Amabari搭建Hadoop集羣(一)

一、系統環境1.系統版本[root@manager ~]# cat /etc/centos-release CentOS Linux release 7.4.1708 (Core)2.主機規劃主機名IP地址角色manager192.168.

原创 Hive 基礎練習

1.在hive的服務端新建源數據[root@hadoop5 ~]# cat hivedata  1,xiaoming,read-tv-code,beijing:chaoyang-shanghai:pudong 2,lisi,cook-gam

原创 HBase 高可用搭建

一、節點規劃hadoop1、hadoop2HMasterhadoop3、hadoop4、hadoop5HRegionServer二、配置環境變量export HBASE_HOME=/usr/local/hbase export PATH=:

原创 hadoop 分佈式集羣初步搭建

一、配置環境1.設置主機名和對應的地址映射[root@master ~]# cat /etc/hosts 127.0.0.1   localhost localhost.localdomain localhost4 localhost4.l

原创 spark 2.2.0 高可用搭建

一、概述1.實驗環境基於以前搭建的haoop HA;2.spark HA所需要的zookeeper環境前文已經配置過,此處不再重複。3.所需軟件包爲:scala-2.12.3.tgz、spark-2.2.0-bin-hadoop2.7.ta

原创 高可用flume-ng搭建

一、概述1.通過搭建高可用flume來實現對數據的收集並存儲到hdfs上,架構圖如下:二、配置Agent1.cat flume-client.properties#name the components on this agent  聲明s

原创 eclipse上搭建hadoop開發環境

一、概述1.實驗使用的Hadoop集羣爲僞分佈式模式,eclipse相關配置已完成;2.軟件版本爲hadoop-2.7.3.tar.gz、apache-maven-3.5.0.rar。 二、使用eclipse連接hadoop集羣進行開發1.

原创 hadoop動態刪除節點

刪除s4(datanode)節點1.環境如下:[hadoop@master root]$ cat /etc/hosts 192.168.100.10 master 192.168.100.11 s1 192.168.100.12 s2 19