集羣模式的工作原理深度解析 在集羣模式下,Redis 的 key 是如何尋址的?分佈式尋址都有哪些算法?瞭解一致性 hash 算法嗎?如何動態增加和刪除一個節點?

Redis 集羣模式的工作原理能說一下麼?在集羣模式下,Redis 的 key 是如何尋址的?分佈式尋址都有哪些算法?瞭解一致性 hash 算法嗎?如何動態增加和刪除一個節點?

 

面試題

redis 集羣模式的工作原理能說一下麼?在集羣模式下,redis 的 key 是如何尋址的?分佈式尋址都有哪些算法?瞭解一致性 hash 算法嗎?

面試官心理分析

在前幾年,redis 如果要搞幾個節點,每個節點存儲一部分的數據,得藉助一些中間件來實現,比如說有 codis,或者 twemproxy,都有。有一些 redis 中間件,你讀寫 redis 中間件,redis 中間件負責將你的數據分佈式存儲在多臺機器上的 redis 實例中。

這兩年,redis 不斷在發展,redis 也不斷的有新的版本,現在的 redis 集羣模式,可以做到在多臺機器上,部署多個 redis 實例,每個實例存儲一部分的數據,同時每個 redis 實例可以掛 redis 從實例,自動確保說,如果 redis 主實例掛了,會自動切換到 redis 從實例頂上來。

現在 redis 的新版本,大家都是用 redis cluster 的,也就是 redis 原生支持的 redis 集羣模式,那麼面試官肯定會就 redis cluster 對你來個幾連炮。要是你沒用過 redis cluster,正常,以前很多人用 codis 之類的客戶端來支持集羣,但是起碼你得研究一下 redis cluster 吧。

如果你的數據量很少,主要是承載高併發高性能的場景,比如你的緩存一般就幾個 G,單機就足夠了,可以使用 replication,一個 master 多個 slaves,要幾個 slave 跟你要求的讀吞吐量有關,然後自己搭建一個 sentinel 集羣去保證 redis 主從架構的高可用性。

redis cluster,主要是針對海量數據+高併發+高可用的場景。redis cluster 支撐 N 個 redis master node,每個 master node 都可以掛載多個 slave node。這樣整個 redis 就可以橫向擴容了。如果你要支撐更大數據量的緩存,那就橫向擴容更多的 master 節點,每個 master 節點就能存放更多的數據了。

面試題剖析

redis cluster 介紹

  • 自動將數據進行分片,每個 master 上放一部分數據
  • 提供內置的高可用支持,部分 master 不可用時,還是可以繼續工作的

在 redis cluster 架構下,每個 redis 要放開兩個端口號,比如一個是 6379,另外一個就是 加1w 的端口號,比如 16379。

16379 端口號是用來進行節點間通信的,也就是 cluster bus 的東西,cluster bus 的通信,用來進行故障檢測、配置更新、故障轉移授權。cluster bus 用了另外一種二進制的協議,gossip 協議,用於節點間進行高效的數據交換,佔用更少的網絡帶寬和處理時間。

節點間的內部通信機制

基本通信原理

  • redis cluster 節點間採用 gossip 協議進行通信 集中式是將集羣元數據(節點信息、故障等等)幾種存儲在某個節點上。集中式元數據集中存儲的一個典型代表,就是大數據領域的 storm。它是分佈式的大數據實時計算引擎,是集中式的元數據存儲的結構,底層基於 zookeeper(分佈式協調的中間件)對所有元數據進行存儲維護。

 

redis 維護集羣元數據採用另一個方式, gossip 協議,所有節點都持有一份元數據,不同的節點如果出現了元數據的變更,就不斷將元數據發送給其它的節點,讓其它節點也進行元數據的變更。

 

集中式好處在於,元數據的讀取和更新,時效性非常好,一旦元數據出現了變更,就立即更新到集中式的存儲中,其它節點讀取的時候就可以感知到;不好在於,所有的元數據的更新壓力全部集中在一個地方,可能會導致元數據的存儲有壓力。

gossip 好處在於,元數據的更新比較分散,不是集中在一個地方,更新請求會陸陸續續,打到所有節點上去更新,降低了壓力;不好在於,元數據的更新有延時,可能導致集羣中的一些操作會有一些滯後。

  • 10000 端口 每個節點都有一個專門用於節點間通信的端口,就是自己提供服務的端口號+10000,比如 7001,那麼用於節點間通信的就是 17001 端口。每個節點每隔一段時間都會往另外幾個節點發送 ping 消息,同時其它幾個節點接收到 ping 之後返回 pong
  • 交換的信息 信息包括故障信息,節點的增加和刪除,hash slot 信息 等等。

gossip 協議

gossip 協議包含多種消息,包含 ping,pong,meet,fail 等等。

  • meet:某個節點發送 meet 給新加入的節點,讓新節點加入集羣中,然後新節點就會開始與其它節點進行通信。

redis-trib.rb add-node

其實內部就是發送了一個 gossip meet 消息給新加入的節點,通知那個節點去加入我們的集羣。

  • ping:每個節點都會頻繁給其它節點發送 ping,其中包含自己的狀態還有自己維護的集羣元數據,互相通過 ping 交換元數據。
  • pong:返回 ping 和 meeet,包含自己的狀態和其它信息,也用於信息廣播和更新。
  • fail:某個節點判斷另一個節點 fail 之後,就發送 fail 給其它節點,通知其它節點說,某個節點宕機啦。

ping 消息深入

ping 時要攜帶一些元數據,如果很頻繁,可能會加重網絡負擔。

每個節點每秒會執行 10 次 ping,每次會選擇 5 個最久沒有通信的其它節點。當然如果發現某個節點通信延時達到了 cluster_node_timeout / 2,那麼立即發送 ping,避免數據交換延時過長,落後的時間太長了。比如說,兩個節點之間都 10 分鐘沒有交換數據了,那麼整個集羣處於嚴重的元數據不一致的情況,就會有問題。所以 cluster_node_timeout 可以調節,如果調得比較大,那麼會降低 ping 的頻率。

每次 ping,會帶上自己節點的信息,還有就是帶上 1/10 其它節點的信息,發送出去,進行交換。至少包含 3 個其它節點的信息,最多包含總結點-2 個其它節點的信息。

分佈式尋址算法

  • hash 算法(大量緩存重建)
  • 一致性 hash 算法(自動緩存遷移)+ 虛擬節點(自動負載均衡)
  • redis cluster 的 hash slot 算法

hash 算法

來了一個 key,首先計算 hash 值,然後對節點數取模。然後打在不同的 master 節點上。一旦某一個 master 節點宕機,所有請求過來,都會基於最新的剩餘 master 節點數去取模,嘗試去取數據。這會導致大部分的請求過來,全部無法拿到有效的緩存,導致大量的流量涌入數據庫。

 

一致性 hash 算法

一致性 hash 算法將整個 hash 值空間組織成一個虛擬的圓環,整個空間按順時針方向組織,下一步將各個 master 節點(使用服務器的 ip 或主機名)進行 hash。這樣就能確定每個節點在其哈希環上的位置。

來了一個 key,首先計算 hash 值,並確定此數據在環上的位置,從此位置沿環順時針“行走”,遇到的第一個 master 節點就是 key 所在位置。

在一致性哈希算法中,如果一個節點掛了,受影響的數據僅僅是此節點到環空間前一個節點(沿着逆時針方向行走遇到的第一個節點)之間的數據,其它不受影響。增加一個節點也同理。

燃鵝,一致性哈希算法在節點太少時,容易因爲節點分佈不均勻而造成緩存熱點的問題。爲了解決這種熱點問題,一致性 hash 算法引入了虛擬節點機制,即對每一個節點計算多個 hash,每個計算結果位置都放置一個虛擬節點。這樣就實現了數據的均勻分佈,負載均衡。

 

redis cluster 的 hash slot 算法

redis cluster 有固定的 16384 個 hash slot,對每個 key 計算 CRC16 值,然後對 16384 取模,可以獲取 key 對應的 hash slot。

redis cluster 中每個 master 都會持有部分 slot,比如有 3 個 master,那麼可能每個 master 持有 5000 多個 hash slot。hash slot 讓 node 的增加和移除很簡單,增加一個 master,就將其他 master 的 hash slot 移動部分過去,減少一個 master,就將它的 hash slot 移動到其他 master 上去。移動 hash slot 的成本是非常低的。客戶端的 api,可以對指定的數據,讓他們走同一個 hash slot,通過 hash tag 來實現。

任何一臺機器宕機,另外兩個節點,不影響的。因爲 key 找的是 hash slot,不是機器。

 

redis cluster 的高可用與主備切換原理

redis cluster 的高可用的原理,幾乎跟哨兵是類似的

判斷節點宕機

如果一個節點認爲另外一個節點宕機,那麼就是 pfail主觀宕機。如果多個節點都認爲另外一個節點宕機了,那麼就是 fail客觀宕機,跟哨兵的原理幾乎一樣,sdown,odown。

在 cluster-node-timeout 內,某個節點一直沒有返回 pong,那麼就被認爲 pfail

如果一個節點認爲某個節點 pfail 了,那麼會在 gossip ping 消息中,ping 給其他節點,如果超過半數的節點都認爲 pfail 了,那麼就會變成 fail

從節點過濾

對宕機的 master node,從其所有的 slave node 中,選擇一個切換成 master node。

檢查每個 slave node 與 master node 斷開連接的時間,如果超過了 cluster-node-timeout * cluster-slave-validity-factor,那麼就沒有資格切換成 master

從節點選舉

每個從節點,都根據自己對 master 複製數據的 offset,來設置一個選舉時間,offset 越大(複製數據越多)的從節點,選舉時間越靠前,優先進行選舉。

所有的 master node 開始 slave 選舉投票,給要進行選舉的 slave 進行投票,如果大部分 master node(N/2 + 1)都投票給了某個從節點,那麼選舉通過,那個從節點可以切換成 master。

從節點執行主備切換,從節點切換爲主節點。

與哨兵比較

繼續閱讀

 

來源:“創享視界”,創享視界(creativeview.cn)是一個帶動全民顛覆八小時工作制,通過投稿把自己的創意智慧變現的方式創造被動收入,從而實現財務自由的平臺。我們相信,創新思維不僅有助於打造更出色的產品,還可以讓世界變得更美好,讓人人受益。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章