Redis集羣模式的工作原理能說一下麼?在集羣模式下,Redis的key是如何尋址的?

地址:https://blog.csdn.net/weixin_43145146/article/details/101065717?utm_source=app

redis cluster 介紹
自動將數據進行分片,每個 master 上放一部分數據
提供內置的高可用支持,部分 master 不可用時,還是可以繼續工作的
在 redis cluster 架構下,每個 redis 要放開兩個端口號,比如一個是 6379,另外一個就是 加1w 的端口號,比如 16379。
16379 端口號是用來進行節點間通信的,也就是 cluster bus 的東西,cluster bus 的通信,用來進行故障檢測、配置更新、故障轉移授權。cluster bus 用了另外一種二進制的協議,gossip 協議,用於節點間進行高效的數據交換,佔用更少的網絡帶寬和處理時間。
節點間的內部通信機制
基本通信原理
集羣元數據的維護有兩種方式:集中式、Gossip 協議。redis cluster 節點間採用 gossip 協議進行通信。
集中式是將集羣元數據(節點信息、故障等等)幾種存儲在某個節點上。集中式元數據集中存儲的一個典型代表,就是大數據領域的 storm。它是分佈式的大數據實時計算引擎,是集中式的元數據存儲的結構,底層基於 zookeeper(分佈式協調的中間件)對所有元數據進行存儲維護。
redis 維護集羣元數據採用另一個方式, gossip 協議,所有節點都持有一份元數據,不同的節點如果出現了元數據的變更,就不斷將元數據發送給其它的節點,讓其它節點也進行元數據的變更。
集中式的好處在於,元數據的讀取和更新,時效性非常好,一旦元數據出現了變更,就立即更新到集中式的存儲中,其它節點讀取的時候就可以感知到;不好在於,所有的元數據的更新壓力全部集中在一個地方,可能會導致元數據的存儲有壓力。
gossip 好處在於,元數據的更新比較分散,不是集中在一個地方,更新請求會陸陸續續打到所有節點上去更新,降低了壓力;不好在於,元數據的更新有延時,可能導致集羣中的一些操作會有一些滯後。
10000 端口:每個節點都有一個專門用於節點間通信的端口,就是自己提供服務的端口號+10000,比如 7001,那麼用於節點間通信的就是 17001 端口。每個節點每隔一段時間都會往另外幾個節點發送 ping 消息,同時其它幾個節點接收到 ping 之後返回 pong。
交換的信息:信息包括故障信息,節點的增加和刪除,hash slot 信息等等。
gossip 協議
gossip 協議包含多種消息,包含 ping,pong,meet,fail 等等。
meet:某個節點發送 meet 給新加入的節點,讓新節點加入集羣中,然後新節點就會開始與其它節點進行通信。
redis-trib.rb add-node
其實內部就是發送了一個 gossip meet 消息給新加入的節點,通知那個節點去加入我們的集羣。
ping:每個節點都會頻繁給其它節點發送 ping,其中包含自己的狀態還有自己維護的集羣元數據,互相通過 ping 交換元數據。
pong:返回 ping 和 meeet,包含自己的狀態和其它信息,也用於信息廣播和更新。
fail:某個節點判斷另一個節點 fail 之後,就發送 fail 給其它節點,通知其它節點說,某個節點宕機啦。
ping 消息深入
ping 時要攜帶一些元數據,如果很頻繁,可能會加重網絡負擔。
每個節點每秒會執行 10 次 ping,每次會選擇 5 個最久沒有通信的其它節點。當然如果發現某個節點通信延時達到了 cluster_node_timeout / 2,那麼立即發送 ping,避免數據交換延時過長,落後的時間太長了。比如說,兩個節點之間都 10 分鐘沒有交換數據了,那麼整個集羣處於嚴重的元數據不一致的情況,就會有問題。所以 cluster_node_timeout 可以調節,如果調得比較大,那麼會降低 ping 的頻率。
每次 ping,會帶上自己節點的信息,還有就是帶上 1/10 其它節點的信息,發送出去,進行交換。至少包含 3 個其它節點的信息,最多包含 總節點數減 2 個其它節點的信息。
分佈式尋址算法
hash 算法(大量緩存重建)
一致性 hash 算法(自動緩存遷移)+ 虛擬節點(自動負載均衡)
redis cluster 的 hash slot 算法
hash 算法
來了一個 key,首先計算 hash 值,然後對節點數取模。然後打在不同的 master 節點上。一旦某一個 master 節點宕機,所有請求過來,都會基於最新的剩餘 master 節點數去取模,嘗試去取數據。這會導致大部分的請求過來,全部無法拿到有效的緩存,導致大量的流量涌入數據庫。
一致性 hash 算法
一致性 hash 算法將整個 hash 值空間組織成一個虛擬的圓環,整個空間按順時針方向組織,下一步將各個 master 節點(使用服務器的 ip 或主機名)進行 hash。這樣就能確定每個節點在其哈希環上的位置。
來了一個 key,首先計算 hash 值,並確定此數據在環上的位置,從此位置沿環順時針“行走”,遇到的第一個 master 節點就是 key 所在位置。
在一致性哈希算法中,如果一個節點掛了,受影響的數據僅僅是此節點到環空間前一個節點(沿着逆時針方向行走遇到的第一個節點)之間的數據,其它不受影響。增加一個節點也同理。
燃鵝,一致性哈希算法在節點太少時,容易因爲節點分佈不均勻而造成緩存熱點的問題。爲了解決這種熱點問題,一致性 hash 算法引入了虛擬節點機制,即對每一個節點計算多個 hash,每個計算結果位置都放置一個虛擬節點。這樣就實現了數據的均勻分佈,負載均衡。
redis cluster 的 hash slot 算法
redis cluster 有固定的 16384 個 hash slot,對每個 key 計算 CRC16 值,然後對 16384 取模,可以獲取 key 對應的 hash slot。
redis cluster 中每個 master 都會持有部分 slot,比如有 3 個 master,那麼可能每個 master 持有 5000 多個 hash slot。hash slot 讓 node 的增加和移除很簡單,增加一個 master,就將其他 master 的 hash slot 移動部分過去,減少一個 master,就將它的 hash slot 移動到其他 master 上去。移動 hash slot 的成本是非常低的。客戶端的 api,可以對指定的數據,讓他們走同一個 hash slot,通過 hash tag 來實現。
任何一臺機器宕機,另外兩個節點,不影響的。因爲 key 找的是 hash slot,不是機器。

redis cluster 的高可用與主備切換原理
redis cluster 的高可用的原理,幾乎跟哨兵是類似的。
判斷節點宕機
如果一個節點認爲另外一個節點宕機,那麼就是 pfail,主觀宕機。如果多個節點都認爲另外一個節點宕機了,那麼就是 fail,客觀宕機,跟哨兵的原理幾乎一樣,sdown,odown。
在 cluster-node-timeout 內,某個節點一直沒有返回 pong,那麼就被認爲 pfail。
如果一個節點認爲某個節點 pfail 了,那麼會在 gossip ping 消息中,ping 給其他節點,如果超過半數的節點都認爲 pfail 了,那麼就會變成 fail。
從節點過濾
對宕機的 master node,從其所有的 slave node 中,選擇一個切換成 master node。
檢查每個 slave node 與 master node 斷開連接的時間,如果超過了 cluster-node-timeout * cluster-slave-validity-factor,那麼就沒有資格切換成 master。
從節點選舉
每個從節點,都根據自己對 master 複製數據的 offset,來設置一個選舉時間,offset 越大(複製數據越多)的從節點,選舉時間越靠前,優先進行選舉。
所有的 master node 開始 slave 選舉投票,給要進行選舉的 slave 進行投票,如果大部分 master node(N/2 + 1)都投票給了某個從節點,那麼選舉通過,那個從節點可以切換成 master。
從節點執行主備切換,從節點切換爲主節點。
與哨兵比較
整個流程跟哨兵相比,非常類似,所以說,redis cluster 功能強大,直接集成了 replication 和 sentinel 的功能。
 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章