keepalived是什麼
keepalived是集羣管理中保證集羣高可用的一個服務軟件,其功能類似於heartbeat,用來防止單點故障。
keepalived介紹
keepalived觀察其名可知,保持存活,在網絡裏面就是保持在線了,也就是所謂的高可用或熱備,它集羣管理中保證集羣高可用的一個服務軟件,其功能類似於heartbeat,用來防止單點故障(單點故障是指一旦某一點出現故障就會導致整個系統架構的不可用)的發生。說到keepalived就不得不說VRRP協議,可以說這個協議就是keepalived實現的基礎,那麼首先我們來看看VRRP協議。
VRRP協議介紹
學過網絡的朋友都知道,網絡在設計的時候必須考慮到冗餘容災,包括線路冗餘,設備冗餘等,防止網絡存在單點故障,那在路由器或三層交換機處實現冗餘就顯得尤爲重要。
在網絡裏面有個協議就是來做這事的,這個協議就是VRRP協議,Keepalived就是巧用VRRP協議來實現高可用性(HA)的發生。
VRRP全稱Virtual Router Redundancy Protocol,即虛擬路由冗餘協議。對於VRRP,需要清楚知道的是:
1)VRRP是用來實現路由器冗餘的協議。
2)VRRP協議是爲了消除在靜態缺省路由環境下路由器單點故障引起的網絡失效而設計的主備模式的協議,使得發生故障而進行設計設備功能切換時可以不影響內外數據通信,不需要再修改內部網絡的網絡參數。
3)VRRP協議需要具有IP備份,優先路由選擇,減少不必要的路由器通信等功能。
4)VRRP協議將兩臺或多臺路由器設備虛擬成一個設備,對外提供虛擬路由器IP(一個或多個)。然而,在路由器組內部,如果實際擁有這個對外IP的路由器如果工作正常的話,就是master,或者是通過算法選舉產生的,MASTER實現針對虛擬路由器IP的各種網絡功能,如ARP請求,ICMP,以及數據的轉發等,其他設備不具有該IP,狀態是BACKUP。除了接收MASTER的VRRP狀態通告信息外,不執行對外的網絡功能,當主級失效時,BACKUP將接管原先MASTER的網絡功能。
5)VRRP協議配置時,需要配置每個路由器的虛擬路由ID(VRID)和優先權值,使用VRID將路由器進行分組,具有相同VRID值的路由器爲同一個組,VRID是一個0-255的整整數,;同一個組中的路由器通過使用優先權值來選舉MASTER。,優先權大者爲MASTER,優先權也是一個0-255的正整數。
keepalived工作原理
keepalived可提供vrrp以及health-check功能,可以只用它提供雙機浮動的vip(vrrp虛擬路由功能),這樣可以簡單實現一個雙機熱備高可用功能;keepalived是以VRRP虛擬路由冗餘協議爲基礎實現高可用的,可以認爲是實現路由器高可用的協議,即將N臺提供相同功能的路由器組成一個路由器組,這個組裏面有一個master和多個backup,master上面有一個對外提供服務的vip(該路由器所在局域網內其他機器的默認路由爲該vip),master會發組播,當backup收不到VRRP包時就認爲master宕掉了,這時就需要根據VRRP的優先級來選舉一個backup當master。這樣的話就可以保證路由器的高可用了。
下圖是keepalived的組件圖
keepalived也是模塊化設計,不同模塊複雜不同的功能,它主要有三個模塊,分別是core、check和VRRP,其中:
core模塊:爲keepalived的核心組件,負責主進程的啓動、維護以及全局配置文件的加載和解析;
check:負責健康檢查,包括常見的各種檢查方式;
VRRP模塊:是來實現VRRP協議的。
system call:系統調用
watch dog:監控check和vrrp進程的看管者,check負責檢測器子進程的健康狀態,當其檢測到master上的服務不可用時則通告vrrp將其轉移至backup服務器上。
除此之外,keepalived還有下面兩個組件:
libipfwc:iptables(ipchains)庫,配置LVS會用到
libipvs*:配置LVS會用到
注意,keepalived和LVS完全是兩碼事,只不過他們各負其責相互配合而已。
keepalived正常啓動的時候,共啓動3個進程:
一個是父進程,負責監控其子進程;一個是VRRP子進程,另外一個是checkers子進程;
兩個子進程都被系統watchlog看管,兩個子進程各自負責複雜自己的事。
Healthcheck子進程檢查各自服務器的健康狀況,,例如http,lvs。如果healthchecks進程檢查到master上服務不可用了,就會通知本機上的VRRP子進程,讓他刪除通告,並且去掉虛擬IP,轉換爲BACKUP狀態。
Keepalived作用
Keepalived主要用作RealServer的健康狀態檢查以及LoadBalance主機和BackUP主機之間failover的實現。Keepalived的作用是檢測web服務器的狀態,如果有一臺web服務器死機,或工作出現故障,Keepalived將檢測到,並將有故障的web服務器從系統中剔除,當web服務器工作正常後Keepalived自動將web服務器加入到服務器羣中,這些工作全部自動完成,不需要人工干涉,需要人工做的只是修復故障的web服務器。
----------------------------------------------------------------------------------------------------------------------------
Keepalived和Heartbeat之間的對比
1)Keepalived使用更簡單:從安裝、配置、使用、維護等角度上對比,Keepalived都比Heartbeat要簡單得多,尤其是Heartbeat2.1.4後拆分成3個子項目,安裝、配置、使用都比較複雜,尤其是出問題的時候,都不知道具體是哪個子系統出問題了;而Keepalived只有1個安裝文件、1個配置文件,配置文件也簡單很多;
2)Heartbeat功能更強大:Heartbeat雖然複雜,但功能更強大,配套工具更全,適合做大型集羣管理,而Keepalived主要用於集羣倒換,基本沒有管理功能;
3)協議不同:Keepalived使用VRRP協議進行通信和選舉,Heartbeat使用心跳進行通信和選舉;Heartbeat除了走網絡外,還可以通過串口通信,貌似更可靠;
Keepalived使用的vrrp協議方式,虛擬路由冗餘協議 ;Heartbeat是基於主機或網絡的服務的高可用方式;
Keepalived的目的是模擬路由器的雙機;Heartbeat的目的是用戶service的雙機
4)使用方式基本類似:如果要基於兩者設計高可用方案,最終都要根據業務需要寫自定義的腳本,Keepalived的腳本沒有任何約束,隨便怎麼寫都可以;Heartbeat的腳本有約束,即要支持service start/stop/restart這種方式,而且Heartbeart提供了很多默認腳本,簡單的綁定ip,啓動apache等操作都已經有了;
使用建議:
優先使用Keepalived,當Keepalived不夠用的時候才選擇Heartbeat
lvs的高可用建議用Keepavlived
業務的高可用用Heartbeat
--------------------------------------------------------------------------------------------------------------------------
keepalived的配置文件
keepalived只有一個配置文件keepalived.conf,配置文件裏面主要包括以下幾個配置項,分別是global_defs、static_ipaddress、static_routes、VRRP_script、VRRP_instance和virtual_server。
總的來說,keepalived主要有三類區域配置,注意不是三種配置文件,是一個配置文件裏面三種不同類別的配置區域:
1)全局配置(Global Configuration)
2)VRRPD配置
3)LVS配置
下面就重點來說說這三類區域的配置:
1)全局配置
全局配置又包括兩個子配置:
全局定義(global definition)
靜態路由配置(static ipaddress/routes)
1--全局定義(global definition)配置範例:
global_defs {
notification_email {
[email protected]
}
notification_email_from [email protected]
smtp_server 127.0.0.1
stmp_connect_timeout 30
router_id node1
}
全局配置解析
global_defs全局配置標識,表面這個區域{}是全局配置
notification_email {
[email protected]
[email protected]
}
表示keepalived在發生諸如切換操作時需要發送email通知,以及email發送給哪些郵件地址,郵件地址可以多個,每行一個
notification_email_from [email protected]
表示發送通知郵件時郵件源地址是誰
smtp_server 127.0.0.1
表示發送email時使用的smtp服務器地址,這裏可以用本地的sendmail來實現
smtp_connect_timeout 30
連接smtp連接超時時間
router_id node1
機器標識
2--靜態地址和路由配置範例
static_ipaddress {
192.168.1.1/24 brd + dev eth0 scope global
192.168.1.2/24 brd + dev eth1 scope global
}
static_routes {
src $SRC_IP to $DST_IP dev $SRC_DEVICE
src $SRC_IP to $DST_IP via $GW dev $SRC_DEVICE
}
這裏實際上和系統裏面用命令配置IP地址和路由的曹一樣,例如:
192.168.1.1/24 brd + dev eth0 scope global 相當於: ip addr add 192.168.1.1/24 brd + dev eth0 scope global
就是給eth0配置IP地址
路由同理
一般這個區域不需要配置
這裏實際上就是給服務器配置真實的IP地址和路由的,在複雜的環境下可能需要配置,一般不會用這個來配置,我們可以直接用vi /etc/sysconfig/network-script/ifcfg-eth1來配置,切記這裏可不是VIP哦,不要搞混淆了,切記切記!
2)VRRPD配置
VRRPD配置包括三個類:
VRRP同步組(synchroization group)
VRRP實例(VRRP Instance)
VRRP腳本
1--VRRP同步組(synchroization group)配置範例
vrrp_sync_group VG_1 {
group {
http
mysql
}
notify_master /path/to/to_master.sh
notify_backup /path_to/to_backup.sh
notify_fault “/path/fault.sh VG_1”
notify /path/to/notify.sh
smtp_alert
}
其中:
group {
http
mysql
}
http和mysql是實例名和下面的實例名一致
notify_master /path/to/to_master.sh:表示當切換到master狀態時,要執行的腳��
notify_backup /path_to/to_backup.sh:表示當切換到backup狀態時,要執行的腳本
notify_fault “/path/fault.sh VG_1”
notify /path/to/notify.sh:
smtp alter表示切換時給global defs中定義的郵件地址發送右鍵通知
2--VRRP實例(instance)配置範例
vrrp_instance http {
state MASTER
interface eth0
dont_track_primary
track_interface {
eth0
eth1
}
mcast_src_ip <IPADDR>
garp_master_delay 10
virtual_router_id 51
priority 100
advert_int 1
authentication {
auth_type PASS
autp_pass 1234
}
virtual_ipaddress {
#<IPADDR>/<MASK> brd <IPADDR> dev <STRING> scope <SCOPT> label <LABEL>
192.168.200.17/24 dev eth1
192.168.200.18/24 dev eth2 label eth2:1
}
virtual_routes {
# src <IPADDR> [to] <IPADDR>/<MASK> via|gw <IPADDR> dev <STRING> scope <SCOPE> tab
src 192.168.100.1 to 192.168.109.0/24 via 192.168.200.254 dev eth1
192.168.110.0/24 via 192.168.200.254 dev eth1
192.168.111.0/24 dev eth2
192.168.112.0/24 via 192.168.100.254
}
nopreempt
preemtp_delay 300
debug
}
state:state指定instance(Initial)的初始狀態,就是說在配置好後,這臺服務器的初始狀態就是這裏指定的,但這裏指定的不算,還是得要通過競選通過優先級來確定,裏如果這裏設置爲master,但如若他的優先級不及另外一臺,那麼這臺在發送通告時,會發送自己的優先級,另外一臺發現優先級不如自己的高,那麼他會就回搶佔爲master
interface:實例綁定的網卡,因爲在配置虛擬IP的時候必須是在已有的網卡上添加的
dont track primary:忽略VRRP的interface錯誤
track interface:跟蹤接口,設置額外的監控,裏面任意一塊網卡出現問題,都會進入故障(FAULT)狀態,例如,用nginx做均衡器的時候,內網必須正常工作,如果內網出問題了,這個均衡器也就無法運作了,所以必須對內外網同時做健康檢查
mcast src ip:發送多播數據包時的源IP地址,這裏注意了,這裏實際上就是在那個地址上發送VRRP通告,這個非常重要,一定要選擇穩定的網卡端口來發送,這裏相當於heartbeat的心跳端口,如果沒有設置那麼就用默認的綁定的網卡的IP,也就是interface指定的IP地址
garp master delay:在切換到master狀態後,延遲進行免費的ARP(gratuitous ARP)請求
virtual router id:這裏設置VRID,這裏非常重要,相同的VRID爲一個組,他將決定多播的MAC地址
priority 100:設置本節點的優先級,優先級高的爲master
advert int:檢查間隔,默認爲1秒
virtual ipaddress:這裏設置的就是VIP,也就是虛擬IP地址,他隨着state的變化而增加刪除,當state爲master的時候就添加,當state爲backup的時候刪除,這裏主要是有優先級來決定的,和state設置的值沒有多大關係,這裏可以設置多個IP地址
virtual routes:原理和virtual ipaddress一樣,只不過這裏是增加和刪除路由
lvs sync daemon interface:lvs syncd綁定的網卡
authentication:這裏設置認證
auth type:認證方式,可以是PASS或AH兩種認證方式
auth pass:認證密碼
nopreempt:設置不搶佔,這裏只能設置在state爲backup的節點上,而且這個節點的優先級必須別另外的高
preempt delay:搶佔延遲
debug:debug級別
notify master:和sync group這裏設置的含義一樣,可以單獨設置,例如不同的實例通知不同的管理人員,http實例發給網站管理員,mysql的就發郵件給DBA
3--VRRP腳本範例
vrrp_script check_running {
script “/usr/local/bin/check_running”
interval 10
weight 10
}
vrrp_instance http {
state BACKUP
smtp_alert
interface eth0
virtual_router_id 101
priority 90
advert_int 3
authentication {
auth_type PASS
auth_pass whatever
}
virtual_ipaddress {
1.1.1.1
}
track_script {
check_running weight 20
}
}
首先在vrrp_script區域定義腳本名字和腳本執行的間隔和腳本執行的優先級變更vrrp_script check_running {
script “/usr/local/bin/check_running”
interval 10 #腳本執行間隔
weight 10 #腳本結果導致的優先級變更:10表示優先級+10;-10則表示優先級-10
}
然後在實例(vrrp_instance)裏面引用,有點類似腳本里面的函數引用一樣:先定義,後引用函數名
track_script {
check_running weight 20
}
注意:VRRP腳本(vrrp_script)和VRRP實例(vrrp_instance)屬於同一個級別
3)LVS配置
如果你沒有配置LVS+keepalived,那麼無需配置這段區域,如果你用的是nginx來代替LVS,這無需配置這款,這裏的LVS配置是專門爲keepalived+LVS集成準備的。
注意了,這裏LVS配置並不是指真的安裝LVS然後用ipvsadm來配置它,而是用keepalived的配置文件來代替ipvsadm來配置LVS,這樣會方便很多,一個配置文件搞定這些,維護方便,配置方便是也!
這裏LVS配置也有兩個配置
一個是虛擬主機組配置
一個是虛擬主機配置
1--虛擬主機組配置文件詳解
這個配置是可選的,根據需求來配置吧,這裏配置主要是爲了讓一臺realserver上的某個服務可以屬於多個Virtual Server,並且只做一次健康檢查:
virtual_server_group <STRING> { # VIP port <IPADDR> <PORT> <IPADDR> <PORT> fwmark <INT> }
2--虛擬主機配置
virtual server可以以下面三種的任意一種來配置:
a)virtual server IP port
b)virtual server fwmark int
c)virtual server group string
下面以第一種比較常用的方式來配詳細解說一下:
virtual_server 192.168.1.2 80 { #設置一個virtual server: VIP:Vport
delay_loop 3 # service polling的delay時間,即服務輪詢的時間間隔
lb_algo rr|wrr|lc|wlc|lblc|sh|dh #LVS調度算法
lb_kind NAT|DR|TUN #LVS集羣模式
persistence_timeout 120 #會話保持時間(秒爲單位),即以用戶在120秒內被分配到同一個後端realserver
persistence_granularity <NETMASK> #LVS會話保持粒度,ipvsadm中的-M參數,默認是0xffffffff,即每個客戶端都做會話保持
protocol TCP #健康檢查用的是TCP還是UDP
ha_suspend #suspendhealthchecker’s activity
virtualhost <string> #HTTP_GET做健康檢查時,檢查的web服務器的虛擬主機(即host:頭)
sorry_server <IPADDR> <PORT> #備用機,就是當所有後端realserver節點都不可用時,就用這裏設置的,也就是臨時把所有的請求都發送到這裏啦
real_server <IPADDR> <PORT> #後端真實節點主機的權重等設置,主要,後端有幾臺這裏就要設置幾個
{
weight 1 #給每臺的權重,0表示失效(不知給他轉發請求知道他恢復正常),默認是1
inhibit_on_failure #表示在節點失敗後,把他權重設置成0,而不是衝IPVS中刪除
notify_up <STRING> | <QUOTED-STRING> #檢查服務器正常(UP)後,要執行的腳本
notify_down <STRING> | <QUOTED-STRING> #檢查服務器失敗(down)後,要執行的腳本
HTTP_GET #健康檢查方式
{
url { #要堅持的URL,可以有多個
path / #具體路徑
digest <STRING>
status_code 200 #返回狀態碼
}
connect_port 80 #監控檢查的端口
bindto <IPADD> #健康檢查的IP地址
connect_timeout 3 #連接超時時間
nb_get_retry 3 #重連次數
delay_before_retry 2 #重連間隔
} # END OF HTTP_GET|SSL_GET
#下面是常用的健康檢查方式,健康檢查方式一共有HTTP_GET|SSL_GET|TCP_CHECK|SMTP_CHECK|MISC_CHECK這些
#TCP方式
TCP_CHECK {
connect_port 80
bindto 192.168.1.1
connect_timeout 4
} # TCP_CHECK
# SMTP方式,這個可以用來給郵件服務器做集羣
SMTP_CHECK
host {
connect_ip <IP ADDRESS>
connect_port <PORT> #默認檢查25端口
14 KEEPALIVED
bindto <IP ADDRESS>
}
connect_timeout <INTEGER>
retry <INTEGER>
delay_before_retry <INTEGER>
# “smtp HELO”ž|·-ë꧌à”
helo_name <STRING>|<QUOTED-STRING>
} #SMTP_CHECK
#MISC方式,這個可以用來檢查很多服務器只需要自己會些腳本即可
MISC_CHECK
{
misc_path <STRING>|<QUOTED-STRING> #外部程序或腳本
misc_timeout <INT> #腳本或程序執行超時時間
misc_dynamic #這個就很好用了,可以非常精確的來調整權重,是後端每天服務器的壓力都能均衡調配,這個主要是通過執行的程序或腳本返回的狀態代碼來動態調整weight值,使權重根據真實的後端壓力來適當調整,不過這需要有過硬的腳本功夫才行哦
#返回0:健康檢查沒問題,不修改權重
#返回1:健康檢查失敗,權重設置爲0
#返回2-255:健康檢查沒問題,但是權重卻要根據返回代碼修改爲返回碼-2,例如如果程序或腳本執行後返回的代碼爲200,#那麼權重這回被修改爲 200-2
}
} # Realserver
} # Virtual Server
================================小案例 分享=============================
172.16.60.205 作爲web-master主節點, 172.16.60.206 作爲web-slave從節點, 兩節點上都部署nginx.
現在在兩節點上部署keepalived, 只做節點故障時vip轉移功能, 不做負載均衡功能.
vip爲: 172.16.60.129
1) 主從兩節點部署nginx, 安裝和配置過程省略. 配置一樣, 訪問內容一致!
yum安裝的nginx, 啓動命令: /etc/init.d/nginx start
http://172.16.60.205/ 和 http://172.16.60.205/ 均可以正常訪問.
2) 主從兩節點安裝keepalived (兩個節點都要安裝)
[root@web-master ~]# yum install -y openssl-devel
[root@web-master ~]# cd /usr/local/src/
[root@web-master src]# wget http://www.keepalived.org/software/keepalived-1.3.5.tar.gz
[root@web-master src]# tar -zvxf keepalived-1.3.5.tar.gz
[root@web-master src]# cd keepalived-1.3.5
[root@web-master keepalived-1.3.5]# ./configure --prefix=/usr/local/keepalived
[root@web-master keepalived-1.3.5]# make && make install
[root@web-master keepalived-1.3.5]# cp /usr/local/src/keepalived-1.3.5/keepalived/etc/init.d/keepalived /etc/rc.d/init.d/
[root@web-master keepalived-1.3.5]# cp /usr/local/keepalived/etc/sysconfig/keepalived /etc/sysconfig/
[root@web-master keepalived-1.3.5]# mkdir /etc/keepalived/
[root@web-master keepalived-1.3.5]# cp /usr/local/keepalived/etc/keepalived/keepalived.conf /etc/keepalived/
[root@web-master keepalived-1.3.5]# cp /usr/local/keepalived/sbin/keepalived /usr/sbin/
[root@web-master keepalived-1.3.5]# echo "/etc/init.d/keepalived start" >> /etc/rc.local
[root@web-master keepalived-1.3.5]# chmod +x /etc/rc.d/init.d/keepalived
[root@web-master keepalived-1.3.5]# chkconfig keepalived on
3) keepalived配置
==========web-master 主節點的配置==========
[root@web-master ~]# cd /etc/keepalived/
[root@web-master keepalived]# cp keepalived.conf keepalived.conf.bak
[root@web-master keepalived]# >keepalived.conf
[root@web-master keepalived]# vim keepalived.conf
! Configuration File for keepalived
global_defs {
router_id LVS_Master
}
vrrp_instance VI_1 {
state MASTER #指定instance初始狀態,實際根據優先級決定.backup節點不一樣
interface eth0 #虛擬IP所在網
virtual_router_id 51 #VRID,相同VRID爲一個組,決定多播MAC地址
priority 100 #優先級,另一臺改爲90.backup節點不一樣
advert_int 1 #檢查間隔
authentication {
auth_type PASS #認證方式,可以是pass或ha
auth_pass 1111 #認證密碼
}
virtual_ipaddress {
172.16.60.129 #VIP地址
}
}
==========web-slave 從節點的配置==========
[root@web-slave ~]# cd /etc/keepalived/
[root@web-slave keepalived]# cp keepalived.conf keepalived.conf.bak
[root@web-slave keepalived]# >keepalived.conf
[root@web-slave keepalived]# vim keepalived.conf
! Configuration File for keepalived
global_defs {
router_id LVS_Backup
}
vrrp_instance VI_1 {
state BACKUP
interface eth0
virtual_router_id 51
priority 90
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
172.16.60.129
}
}
4) 分別啓動主從節點的keepalived服務
啓動主節點keepalived服務
[root@web-master keepalived]# /etc/init.d/keepalived start
Starting keepalived: [ OK ]
[root@web-master keepalived]# ps -ef|grep keepalived
root 13529 1 0 16:36 ? 00:00:00 keepalived -D
root 13530 13529 0 16:36 ? 00:00:00 keepalived -D
root 13532 13529 0 16:36 ? 00:00:00 keepalived -D
root 13536 9799 0 16:36 pts/1 00:00:00 grep keepalived
啓動從節點keepalived服務
[root@web-slave keepalived]# /etc/init.d/keepalived start
Starting keepalived: [ OK ]
[root@web-slave keepalived]# ps -ef|grep keepalived
root 3120 1 0 16:37 ? 00:00:00 keepalived -D
root 3121 3120 0 16:37 ? 00:00:00 keepalived -D
root 3123 3120 0 16:37 ? 00:00:00 keepalived -D
root 3128 27457 0 16:37 pts/2 00:00:00 grep keepalived
查看vip資源情況 (默認vip是在主節點上的)
[root@web-master keepalived]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000
link/ether 00:50:56:88:43:f8 brd ff:ff:ff:ff:ff:ff
inet 172.16.60.205/24 brd 172.16.60.255 scope global eth0
inet 172.16.60.129/32 scope global eth0
inet6 fe80::250:56ff:fe88:43f8/64 scope link
valid_lft forever preferred_lft forever
從節點沒有vip資源
[root@web-slave keepalived]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000
link/ether 00:50:56:ac:50:9b brd ff:ff:ff:ff:ff:ff
inet 172.16.60.206/24 brd 172.16.60.255 scope global eth0
inet6 fe80::250:56ff:feac:509b/64 scope link
valid_lft forever preferred_lft forever
5) keepalived 實現故障轉移 (轉移vip資源)
假設主節點宕機或keepalived服務掛掉, 則vip資源就會自動轉移到從節點
[root@web-master keepalived]# /etc/init.d/keepalived stop
Stopping keepalived: [ OK ]
[root@web-master keepalived]# ps -ef|grep keepalived
root 13566 9799 0 16:40 pts/1 00:00:00 grep keepalived
[root@web-master keepalived]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000
link/ether 00:50:56:88:43:f8 brd ff:ff:ff:ff:ff:ff
inet 172.16.60.205/24 brd 172.16.60.255 scope global eth0
inet6 fe80::250:56ff:fe88:43f8/64 scope link
valid_lft forever preferred_lft forever
則從節點這邊就會接管vip
[root@web-slave keepalived]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000
link/ether 00:50:56:ac:50:9b brd ff:ff:ff:ff:ff:ff
inet 172.16.60.206/24 brd 172.16.60.255 scope global eth0
inet 172.16.60.129/32 scope global eth0
inet6 fe80::250:56ff:feac:509b/64 scope link
valid_lft forever preferred_lft forever
接着再重啓主節點的keepalived服務, 即主節點故障恢復後, 就會重新搶回vip (根據配置裏的優先級決定的)
[root@web-master keepalived]# /etc/init.d/keepalived start
Starting keepalived: [ OK ]
[root@web-master keepalived]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000
link/ether 00:50:56:88:43:f8 brd ff:ff:ff:ff:ff:ff
inet 172.16.60.205/24 brd 172.16.60.255 scope global eth0
inet 172.16.60.129/32 scope global eth0
inet6 fe80::250:56ff:fe88:43f8/64 scope link
valid_lft forever preferred_lft forever
這時候, 從節點的vip就消失了
[root@web-slave keepalived]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000
link/ether 00:50:56:ac:50:9b brd ff:ff:ff:ff:ff:ff
inet 172.16.60.206/24 brd 172.16.60.255 scope global eth0
inet6 fe80::250:56ff:feac:509b/64 scope link
valid_lft forever preferred_lft forever
以上操作, keepalived僅僅實現了兩臺機器的vip的故障轉移功能, 即實現了雙機熱備, 避免了單點故障.
即keepalived配置裏僅僅只是在宕機(或keepalived服務掛掉)後才實現vip轉移, 並沒有實現所監控應用故障時的vip轉移.
比如案例中兩臺機器的nginx, 可以監控nginx, 當nginx掛掉後,實現自啓動, 如果強啓失敗, 則將vip轉移到對方節點.
這種情況的配置可以參考另一篇博文: https://www.linuxidc.com/Linux/2017-12/149670.htm
============下面是曾經使用過的一個案例: 三臺節點機器,配置三個VIP,實行相互之間的"兩主兩從"模式=============
server1:第一臺節點的keepalived.conf配置. 其中VIP:192.168.20.187
[root@keepalived-node01 ~]# cat /etc/keepalived/keepalived.conf
! Configuration File for keepalived
global_defs {
notification_email {
[email protected]
}
smtp_server 192.168.200.1
smtp_connect_timeout 30
router_id innodb_cluster #局域網中需要共享該vip的服務器,該配置要一致
vrrp_skip_check_adv_addr
vrrp_garp_interval 0
vrrp_gna_interval 0
}
vrrp_instance VI_1 {
state MASTER #狀態爲master,表明 keepalived 啓動後會搶佔IP, 但,下面的優先級值201要高於 從庫的優先級 101
interface eth0 #viP 綁定的網卡
virtual_router_id 191 #這個組隊標誌,同一個vrrp 下的 值一致,主從一致
priority 201 # 主庫爲201,高於從庫101
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.20.187 #這是VIP 值
}
}
vrrp_instance VI_2 {
state BACKUP #狀態爲 BACKUP,表明 keepalived 啓動後不搶佔IP
interface eth0 #VIP 綁定的接口
virtual_router_id 193 #組隊標識,同一個vrrp 下的值一致
priority 101 #設置優先級小於另一個節點的priority 上值。
advert_int 1
authentication {
auth_type PASS
auth_pass 3333
}
virtual_ipaddress {
192.168.20.189
}
}
啓動keepalived
[root@keepalived-node01 ~]# /etc/init.d/keepalived start
[root@keepalived-node01 ~]# ps -ef|grep keepalived
root 13746 1 0 16:31 ? 00:00:00 /usr/sbin/keepalived -D
root 13747 13746 0 16:31 ? 00:00:00 /usr/sbin/keepalived -D
root 13748 13746 0 16:31 ? 00:00:00 /usr/sbin/keepalived -D
root 14089 13983 0 16:36 pts/1 00:00:00 grep --color=auto keepalived
啓動keepalived服務後,查看ip
[root@keepalived-node01 ~]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000
link/ether 2e:ab:68:68:ee:90 brd ff:ff:ff:ff:ff:ff
inet 192.168.20.191/24 brd 192.168.20.255 scope global noprefixroute eth0
valid_lft forever preferred_lft forever
inet 192.168.20.187/32 scope global eth0
valid_lft forever preferred_lft forever
inet6 fe80::2cab:68ff:fe68:ee90/64 scope link
valid_lft forever preferred_lft forever
==========================================================================================
server2:第二臺節點的keepalived.conf配置. 其中VIP:192.168.20.188
[root@keepalived-node02 ~]# cat /etc/keepalived/keepalived.conf
! Configuration File for keepalived
global_defs {
notification_email {
[email protected]
}
smtp_server 192.168.200.1
smtp_connect_timeout 30
router_id innodb_cluster #局域網中需要共享該vip的服務器,該配置要一致
vrrp_skip_check_adv_addr
vrrp_garp_interval 0
vrrp_gna_interval 0
}
vrrp_instance VI_1 {
state MASTER #狀態爲master,表明 keepalived 啓動後會搶佔IP, 但,下面的優先級值201要高於 從庫的優先級 101
interface eth0 #viP 綁定的網卡
virtual_router_id 192 #這個組隊標誌,同一個vrrp 下的 值一致,主從一致
priority 201 # 主庫爲201,高於從庫101
advert_int 1
authentication {
auth_type PASS
auth_pass 2222
}
virtual_ipaddress {
192.168.20.188 #這是VIP 值
}
}
vrrp_instance VI_2 {
state BACKUP #狀態爲 BACKUP,表明 keepalived 啓動後不搶佔IP
interface eth0 #VIP 綁定的接口
virtual_router_id 191 #組隊標識,同一個vrrp 下的值一致
priority 101 #設置優先級小於另一個節點的priority 上值。
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.20.187
}
}
啓動keepalived
[root@keepalived-node02 ~]# /etc/init.d/keepalived start
[root@keepalived-node02 ~]# ps -ef|grep keepalived
root 13327 1 0 16:32 ? 00:00:00 /usr/sbin/keepalived -D
root 13328 13327 0 16:32 ? 00:00:00 /usr/sbin/keepalived -D
root 13329 13327 0 16:32 ? 00:00:00 /usr/sbin/keepalived -D
root 13570 13529 0 16:39 pts/1 00:00:00 grep --color=auto keepalived
啓動keepalived服務後查看ip
[root@keepalived-node02 ~]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000
link/ether 76:6d:74:97:03:15 brd ff:ff:ff:ff:ff:ff
inet 192.168.20.192/24 brd 192.168.20.255 scope global noprefixroute eth0
valid_lft forever preferred_lft forever
inet 192.168.20.188/32 scope global eth0
valid_lft forever preferred_lft forever
inet6 fe80::746d:74ff:fe97:315/64 scope link
valid_lft forever preferred_lft forever
==========================================================================================
server3:第三臺節點的keepalived.conf配置. 其中VIP:192.168.20.189
[root@keepalived-node03 ~]# cat /etc/keepalived/keepalived.conf
! Configuration File for keepalived
global_defs {
notification_email {
[email protected]
}
smtp_server 192.168.200.1
smtp_connect_timeout 30
router_id innodb_cluster #和server1 一致全局唯一
vrrp_skip_check_adv_addr
# vrrp_strict
vrrp_garp_interval 0
vrrp_gna_interval 0
}
vrrp_instance VI_1 {
state BACKUP #主是master,從就是backup
interface eth0
virtual_router_id 192 # 組隊標識,同一個vrrp 下一致
priority 101 #優先級也變小
advert_int 1
authentication {
auth_type PASS
auth_pass 2222
}
virtual_ipaddress {
192.168.20.188
}
}
vrrp_instance VI_2 {
state MASTER #主變成MASTER
interface eth0 #綁定網卡
virtual_router_id 193 #組隊標誌,同一個vip 下一致
priority 201 #優先級提升
advert_int 1
authentication {
auth_type PASS
auth_pass 3333
}
virtual_ipaddress {
192.168.20.189
}
}
啓動keepalived
[root@keepalived-node03 ~]# /etc/init.d/keepalived start
[root@keepalived-node03 ~]# ps -ef|grep keepalived
root 13134 1 0 16:33 ? 00:00:00 /usr/sbin/keepalived -D
root 13135 13134 0 16:33 ? 00:00:00 /usr/sbin/keepalived -D
root 13136 13134 0 16:33 ? 00:00:00 /usr/sbin/keepalived -D
root 13526 13460 0 16:41 pts/1 00:00:00 grep --color=auto keepalived
啓動keepalived服務後查看ip
[root@keepalived-node03 ~]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000
link/ether 22:ee:46:41:f0:e6 brd ff:ff:ff:ff:ff:ff
inet 192.168.20.193/24 brd 192.168.20.255 scope global noprefixroute eth0
valid_lft forever preferred_lft forever
inet 192.168.20.189/32 scope global eth0
valid_lft forever preferred_lft forever
inet6 fe80::20ee:46ff:fe41:f0e6/64 scope link
valid_lft forever preferred_lft forever
溫馨提示:
如上,keepalived.conf配置後,重啓keepalived服務,重啓成功並且vip地址已經有了,但是死活ping不通vip地址!!
這是因爲keepalived.conf文件中的vrrp_strict參數引起的,將該參數註釋掉就可以了!!!
vrrp_strict 表示嚴格執行VRRP協議規範,此模式不支持節點單播
VIP地址ping不通,需要註釋vrrp_strict參數配置即可!