zookeeper集羣搭建

zookeeper集羣搭建(僞集羣)

上傳zookeeper-3.4.11.tar.gz

解壓

tar vxzf zookeeper-3.4.11.tar.gz

進入zookeeper新建data文件夾

mkdir data

進入conf文件將zoo_sample.cfg重命名爲zoo.cfg
在這裏插入圖片描述
進入到/usr/local文件夾下創建一個zookeeper-cluster文件夾
在這裏插入圖片描述
將外部解壓的zookeeper-3.4.11複製到zookeeper-cluster中,複製3份,分別爲zookeeper-1,zookeeper-2,zookeeper-3
在這裏插入圖片描述
分別進入zookeeper-1,zookeeper-2,zookeeper-3對應的conf文件夾,修改zoo.cfg文件
在這裏插入圖片描述
修改存儲文件地址及端口號
在這裏插入圖片描述
在這裏插入圖片描述
配置集羣
在這裏插入圖片描述
每個節點的配置文件zoo.cfg中

server.1=192.168.0.128:2881:3881

server.2=192.168.0.128:2882:3882

server.3=192.168.0.128:2883:3883

啓動集羣
在這裏插入圖片描述
在這裏插入圖片描述
在這裏插入圖片描述
模擬集羣異常

(1)首先我們先測試如果是從服務器掛掉,會怎麼樣

把3號服務器停掉,觀察1號和2號,發現狀態並沒有變化
在這裏插入圖片描述
由此得出結論,3個節點的集羣,從服務器掛掉,集羣正常

(2)我們再把1號服務器(從服務器)也停掉,查看2號(主服務器)的狀態,發現已經停止運行了。
在這裏插入圖片描述
由此得出結論,3個節點的集羣,2個從服務器都掛掉,主服務器也無法運行。因爲可運行的機器沒有超過集羣總數量的半數。

(3)我們再次把1號服務器啓動起來,發現2號服務器又開始正常工作了。而且依然是領導者。
在這裏插入圖片描述
(4)我們把3號服務器也啓動起來,把2號服務器停掉(汗~~幹嘛?領導掛了?)停掉後觀察1號和3號的狀態。
在這裏插入圖片描述
發現新的leader產生了~
由此我們得出結論,當集羣中的主服務器掛了,集羣中的其他服務器會自動進行選舉狀態,然後產生新得leader

(5)我們再次測試,當我們把2號服務器重新啓動起來(汗~~這是詐屍啊!)啓動後,會發生什麼?2號服務器會再次成爲新的領導嗎?我們看結果
在這裏插入圖片描述
我們會發現,2號服務器啓動後依然是跟隨者(從服務器),3號服務器依然是領導者(主服務器),沒有撼動3號服務器的領導地位。哎~退休了就是退休了,說了不算了,哈哈。

由此我們得出結論,當領導者產生後,再次有新服務器加入集羣,不會影響到現任領導者。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章