《系統設計》—架構師必備知識—系統設計基礎—0002

一、分佈式鎖
在單機場景下,可以使用語言的內置鎖來實現進程同步。但是在分佈式場景下,需要同步的進程可能位於不同的節點
上,那麼就需要使用分佈式鎖。
阻塞鎖通常使用互斥量來實現:
互斥量爲 0 表示有其它進程在使用鎖,此時處於鎖定狀態;
互斥量爲 1 表示未鎖定狀態。
1 0 可以用一個整型值表示,也可以用某個數據是否存在表示。
數據庫的唯一索引
獲得鎖時向表中插入一條記錄,釋放鎖時刪除這條記錄。唯一索引可以保證該記錄只被插入一次,那麼就可以用這個
記錄是否存在來判斷是否存於鎖定狀態。
存在以下幾個問題:
鎖沒有失效時間,解鎖失敗的話其它進程無法再獲得該鎖。
只能是非阻塞鎖,插入失敗直接就報錯了,無法重試。
不可重入,已經獲得鎖的進程也必須重新獲取鎖。
Redis SETNX 指令
使用 SETNXset if not exist)指令插入一個鍵值對,如果 Key 已經存在,那麼會返回 False,否則插入成功並返回
True
SETNX 指令和數據庫的唯一索引類似,保證了只存在一個 Key 的鍵值對,那麼可以用一個 Key 的鍵值對是否存在來
判斷是否存於鎖定狀態。
EXPIRE 指令可以爲一個鍵值對設置一個過期時間,從而避免了數據庫唯一索引實現方式中釋放鎖失敗的問題。
Redis RedLock 算法
使用了多個 Redis 實例來實現分佈式鎖,這是爲了保證在發生單點故障時仍然可用。
嘗試從 N 個相互獨立 Redis 實例獲取鎖;
計算獲取鎖消耗的時間,只有當這個時間小於鎖的過期時間,並且從大多數(N / 2 + 1)實例上獲取了鎖,那
麼就認爲鎖獲取成功了;
如果鎖獲取失敗,就到每個實例上釋放鎖。
Zookeeper 的有序節點
1. Zookeeper 抽象模型Zookeeper 提供了一種樹形結構級的命名空間,/app1/p_1 節點的父節點爲 /app1
2. 節點類型
永久節點:不會因爲會話結束或者超時而消失;
臨時節點:如果會話結束或者超時就會消失;
有序節點:會在節點名的後面加一個數字後綴,並且是有序的,例如生成的有序節點爲 /lock/node-
0000000000,它的下一個有序節點則爲 /lock/node-0000000001,以此類推。
3. 監聽器
爲一個節點註冊監聽器,在節點狀態發生改變時,會給客戶端發送消息。
4. 分佈式鎖實現
創建一個鎖目錄 /lock
當一個客戶端需要獲取鎖時,在 /lock 下創建臨時的且有序的子節點;
客戶端獲取 /lock 下的子節點列表,判斷自己創建的子節點是否爲當前子節點列表中序號最小的子節點,如果是
則認爲獲得鎖;否則監聽自己的前一個子節點,獲得子節點的變更通知後重復此步驟直至獲得鎖;
執行業務代碼,完成後,刪除對應的子節點。
5. 會話超時
如果一個已經獲得鎖的會話超時了,因爲創建的是臨時節點,所以該會話對應的臨時節點會被刪除,其它會話就可以
獲得鎖了。可以看到,Zookeeper 分佈式鎖不會出現數據庫的唯一索引實現的分佈式鎖釋放鎖失敗問題。
6. 羊羣效應
一個節點未獲得鎖,只需要監聽自己的前一個子節點,這是因爲如果監聽所有的子節點,那麼任意一個子節點狀態改
變,其它所有子節點都會收到通知(羊羣效應),而我們只希望它的後一個子節點收到通知。
二、分佈式事務
指事務的操作位於不同的節點上,需要保證事務的 ACID 特性。
例如在下單場景下,庫存和訂單如果不在同一個節點上,就涉及分佈式事務。
本地消息表本地消息表與業務數據表處於同一個數據庫中,這樣就能利用本地事務來保證在對這兩個表的操作滿足事務特性,並
且使用了消息隊列來保證最終一致性。
1. 在分佈式事務操作的一方完成寫業務數據的操作之後向本地消息表發送一個消息,本地事務能保證這個消息一
定會被寫入本地消息表中。
2. 之後將本地消息表中的消息轉發到 Kafka 等消息隊列中,如果轉發成功則將消息從本地消息表中刪除,否則繼
續重新轉發。
3. 在分佈式事務操作的另一方從消息隊列中讀取一個消息,並執行消息中的操作。
2PC
兩階段提交(Two-phase Commit2PC),通過引入協調者(Coordinator)來協調參與者的行爲,並最終決定這
些參與者是否要真正執行事務。
1. 運行過程
1.1 準備階段
協調者詢問參與者事務是否執行成功,參與者發回事務執行結果。
1.2 提交階段
如果事務在每個參與者上都執行成功,事務協調者發送通知讓參與者提交事務;否則,協調者發送通知讓參與者回滾
事務。需要注意的是,在準備階段,參與者執行了事務,但是還未提交。只有在提交階段接收到協調者發來的通知後,才進
行提交或者回滾。
2. 存在的問題
2.1 同步阻塞
所有事務參與者在等待其它參與者響應的時候都處於同步阻塞狀態,無法進行其它操作。
2.2 單點問題
協調者在 2PC 中起到非常大的作用,發生故障將會造成很大影響。特別是在階段二發生故障,所有參與者會一直等
待,無法完成其它操作。
2.3 數據不一致
在階段二,如果協調者只發送了部分 Commit 消息,此時網絡發生異常,那麼只有部分參與者接收到 Commit
息,也就是說只有部分參與者提交了事務,使得系統數據不一致。
2.4 太過保守
任意一個節點失敗就會導致整個事務失敗,沒有完善的容錯機制。
三、CAP
分佈式系統不可能同時滿足一致性(CConsistency)、可用性(AAvailability)和分區容忍性(PPartition
Tolerance),最多隻能同時滿足其中兩項。一致性
一致性指的是多個數據副本是否能保持一致的特性,在一致性的條件下,系統在執行數據更新操作之後能夠從一致性
狀態轉移到另一個一致性狀態。
對系統的一個數據更新成功之後,如果所有用戶都能夠讀取到最新的值,該系統就被認爲具有強一致性。
可用性
可用性指分佈式系統在面對各種異常時可以提供正常服務的能力,可以用系統可用時間佔總時間的比值來衡量,4
9 的可用性表示系統 99.99% 的時間是可用的。
在可用性條件下,要求系統提供的服務一直處於可用的狀態,對於用戶的每一個操作請求總是能夠在有限的時間內返
回結果。
分區容忍性
網絡分區指分佈式系統中的節點被劃分爲多個區域,每個區域內部可以通信,但是區域之間無法通信。
在分區容忍性條件下,分佈式系統在遇到任何網絡分區故障的時候,仍然需要能對外提供一致性和可用性的服務,除
非是整個網絡環境都發生了故障。
權衡
在分佈式系統中,分區容忍性必不可少,因爲需要總是假設網絡是不可靠的。因此,CAP 理論實際上是要在可用性和
一致性之間做權衡。可用性和一致性往往是衝突的,很難使它們同時滿足。在多個節點之間進行數據同步時,
爲了保證一致性(CP),不能訪問未同步完成的節點,也就失去了部分可用性;
爲了保證可用性(AP),允許讀取所有節點的數據,但是數據可能不一致。
四、BASE
BASE 是基本可用(Basically Available)、軟狀態(Soft State)和最終一致性(Eventually Consistent)三個短語
的縮寫。
BASE 理論是對 CAP 中一致性和可用性權衡的結果,它的核心思想是:即使無法做到強一致性,但每個應用都可以根
據自身業務特點,採用適當的方式來使系統達到最終一致性。
基本可用
指分佈式系統在出現故障的時候,保證核心可用,允許損失部分可用性。
例如,電商在做促銷時,爲了保證購物系統的穩定性,部分消費者可能會被引導到一個降級的頁面。
軟狀態
指允許系統中的數據存在中間狀態,並認爲該中間狀態不會影響系統整體可用性,即允許系統不同節點的數據副本之
間進行同步的過程存在時延。
最終一致性最終一致性強調的是系統中所有的數據副本,在經過一段時間的同步後,最終能達到一致的狀態。
ACID 要求強一致性,通常運用在傳統的數據庫系統上。而 BASE 要求最終一致性,通過犧牲強一致性來達到可用
性,通常運用在大型分佈式系統中。
在實際的分佈式場景中,不同業務單元和組件對一致性的要求是不同的,因此 ACID BASE 往往會結合在一起使
用。
五、Paxos
用於達成共識性問題,即對多個節點產生的值,該算法能保證只選出唯一一個值。
主要有三類節點:
提議者(Proposer):提議一個值;
接受者(Acceptor):對每個提議進行投票;
告知者(Learner):被告知投票的結果,不參與投票過程。
執行過程
規定一個提議包含兩個字段:[n, v],其中 n 爲序號(具有唯一性),v 爲提議值。
1. Prepare 階段
下圖演示了兩個 Proposer 和三個 Acceptor 的系統中運行該算法的初始過程,每個 Proposer 都會向所有 Acceptor
發送 Prepare 請求。 Acceptor 接收到一個 Prepare 請求,包含的提議爲 [n1, v1],並且之前還未接收過 Prepare 請求,那麼發送一個
Prepare 響應,設置當前接收到的提議爲 [n1, v1],並且保證以後不會再接受序號小於 n1 的提議。
如下圖,Acceptor X 在收到 [n=2, v=8] Prepare 請求時,由於之前沒有接收過提議,因此就發送一個 [no
previous] Prepare 響應,設置當前接收到的提議爲 [n=2, v=8],並且保證以後不會再接受序號小於 2 的提議。其
它的 Acceptor 類似。如果 Acceptor 接收到一個 Prepare 請求,包含的提議爲 [n2, v2],並且之前已經接收過提議 [n1, v1]。如果 n1 >
n2,那麼就丟棄該提議請求;否則,發送 Prepare 響應,該 Prepare 響應包含之前已經接收過的提議 [n1, v1],設
置當前接收到的提議爲 [n2, v2],並且保證以後不會再接受序號小於 n2 的提議。
如下圖,Acceptor Z 收到 Proposer A 發來的 [n=2, v=8] Prepare 請求,由於之前已經接收過 [n=4, v=5] 的提
議,並且 n > 2,因此就拋棄該提議請求;Acceptor X 收到 Proposer B 發來的 [n=4, v=5] Prepare 請求,因爲之
前接收到的提議爲 [n=2, v=8],並且 2 <= 4,因此就發送 [n=2, v=8] Prepare 響應,設置當前接收到的提議爲
[n=4, v=5],並且保證以後不會再接受序號小於 4 的提議。Acceptor Y 類似。2. Accept 階段
當一個 Proposer 接收到超過一半 Acceptor Prepare 響應時,就可以發送 Accept 請求。
Proposer A 接收到兩個 Prepare 響應之後,就發送 [n=2, v=8] Accept 請求。該 Accept 請求會被所有 Acceptor
棄,因爲此時所有 Acceptor 都保證不接受序號小於 4 的提議。
Proposer B 過後也收到了兩個 Prepare 響應,因此也開始發送 Accept 請求。需要注意的是,Accept 請求的 v 需要
取它收到的最大提議編號對應的 v 值,也就是 8。因此它發送 [n=4, v=8] Accept 請求。3. Learn 階段
Acceptor 接收到 Accept 請求時,如果序號大於等於該 Acceptor 承諾的最小序號,那麼就發送 Learn 提議給所有的
Learner。當 Learner 發現有大多數的 Acceptor 接收了某個提議,那麼該提議的提議值就被 Paxos 選擇出來。約束條件
1. 正確性
指只有一個提議值會生效。
因爲 Paxos 協議要求每個生效的提議被多數 Acceptor 接收,並且 Acceptor 不會接受兩個不同的提議,因此可以保
證正確性。
2. 可終止性
指最後總會有一個提議生效。
Paxos 協議能夠讓 Proposer 發送的提議朝着能被大多數 Acceptor 接受的那個提議靠攏,因此能夠保證可終止性。
六、Raft
Raft 也是分佈式一致性協議,主要是用來競選主節點。
單個 Candidate 的競選
有三種節點:FollowerCandidate LeaderLeader 會週期性的發送心跳包給 Follower。每個 Follower 都設置
了一個隨機的競選超時時間,一般爲 150ms~300ms,如果在這個時間內沒有收到 Leader 的心跳包,就會變成
Candidate,進入競選階段。
下圖展示一個分佈式系統的最初階段,此時只有 Follower 沒有 LeaderNode A 等待一個隨機的競選超時時間
之後,沒收到 Leader 發來的心跳包,因此進入競選階段。
此時 Node A 發送投票請求給其它所有節點。其它節點會對請求進行回覆,如果超過一半的節點回復了,那麼該 Candidate 就會變成 Leader
之後 Leader 會週期性地發送心跳包給 FollowerFollower 接收到心跳包,會重新開始計時。
多個 Candidate 競選
如果有多個 Follower 成爲 Candidate,並且所獲得票數相同,那麼就需要重新開始投票。例如下圖中 Node B
Node D 都獲得兩票,需要重新開始投票。
由於每個節點設置的隨機競選超時時間不同,因此下一次再次出現多個 Candidate 並獲得同樣票數的概率很
低。
數據同步
來自客戶端的修改都會被傳入 Leader。注意該修改還未被提交,只是寫入日誌中。
Leader 會把修改複製到所有 FollowerLeader 會等待大多數的 Follower 也進行了修改,然後纔將修改提交。
此時 Leader 會通知的所有 Follower 讓它們也提交修改,此時所有節點的值達成一致。
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章