從零開始入門 K8s:手把手帶你理解 etcd

etcd 是用於共享配置和服務發現的分佈式、一致性的 KV 存儲系統。本文從 etcd 項目發展所經歷的幾個重要時刻開始,爲大家介紹了 etcd 的總體架構及其設計中的基本原理。希望能夠幫助大家更好的理解和使用 etcd。

一、etcd 項目的發展歷程

etcd 誕生於 CoreOS 公司,它最初是用於解決集羣管理系統中 OS 升級的分佈式併發控制以及配置文件的存儲與分發等問題。基於此,etcd 被設計爲提供高可用、強一致的小型 keyvalue 數據存儲服務。

項目當前隸屬於 CNCF 基金會,被 AWS、Google、Microsoft、Alibaba 等大型互聯網公司廣泛使用。

最初,在 2013 年 6 月份由 CoreOS 公司向 GitHub 中提交了第一個版本的初始代碼。

到了 2014 年的 6 月,社區發生了一件事情,Kubernetes v0.4 版本發佈。這裏有必要介紹一下 Kubernetes 項目,它首先是一個容器管理平臺,由谷歌開發並貢獻給社區,因爲它集齊了谷歌在容器調度以及集羣管理等領域的多年經驗,從誕生之初就備受矚目。在 Kubernetes v0.4 版本中,它使用了 etcd 0.2 版本作爲實驗覈心元數據的存儲服務,自此 etcd 社區得到了飛速的發展。

很快,在 2015 年 2 月份,etcd 發佈了第一個正式的穩定版本 2.0。在 2.0 版本中,etcd 重新設計了 Raft 一致性算法,併爲用戶提供了一個簡單的樹形數據視圖,在 2.0 版本中 etcd 支持每秒超過 1000 次的寫入性能,滿足了當時絕大多數的應用場景需求。2.0 版本發佈之後,經過不斷的迭代與改進,其原有的數據存儲方案逐漸成爲了新時期的性能瓶頸,之後 etcd 啓動了 v3 版本的方案設計。

2017 年 1 月份的時候,etcd 發佈了 3.1 版本,v3 版本方案基本上標誌着 etcd 技術上全面成熟。在 v3 版本中 etcd 提供了一套全新的 API,重新實現了更高效的一致性讀取方法,並且提供了一個 gRPC 的 proxy 用於擴展 etcd 的讀取性能。同時,在 v3 版本的方案中包含了大量的 GC 優化,在性能優化方面取得了長足的進步,在該版本中 etcd 可以支持每秒超過 10000 次的寫入。

2018 年,CNCF 基金會下的衆多項目都使用了 etcd 作爲其核心的數據存儲。據不完全統計,使用 etcd 的項目超過了 30 個,在同年 11 月份,etcd 項目自身也成爲了 CNCF 旗下的孵化項目。進入 CNCF 基金會後,etcd 擁有了超過 400 個貢獻組,其中包含了來自 AWS、Google、Alibaba 等 8 個公司的 9 個項目維護者。

2019 年,etcd 即將發佈全新的 3.4 版本,該版本由 Google、Alibaba 等公司聯合打造,將進一步改進 etcd 的性能及穩定性,以滿足在超大型公司使用中苛刻的場景要求。

二、架構及內部機制解析

總體架構

etcd 是一個分佈式的、可靠的 key-value 存儲系統,它用於存儲分佈式系統中的關鍵數據,這個定義非常重要。

一個 etcd 集羣,通常會由 3 個或者 5 個節點組成,多個節點之間通過 Raft 一致性算法的完成分佈式一致性協同,算法會選舉出一個主節點作爲 leader,由 leader 負責數據的同步與數據的分發。當 leader 出現故障後系統會自動地選取另一個節點成爲 leader,並重新完成數據的同步。客戶端在多個節點中,僅需要選擇其中的任意一個就可以完成數據的讀寫,內部的狀態及數據協同由 etcd 自身完成。

在 etcd 整個架構中,有一個非常關鍵的概念叫做 quorum,quorum 的定義是 (n+1)/2,也就是說超過集羣中半數節點組成的一個團體,在 3 個節點的集羣中,etcd 可以容許 1 個節點故障,也就是只要有任何 2 個節點可用,etcd 就可以繼續提供服務。同理,在 5 個節點的集羣中,只要有任何 3 個節點可用,etcd 就可以繼續提供服務,這也是 etcd 集羣高可用的關鍵。

在允許部分節點故障之後繼續提供服務,就需要解決一個非常複雜的問題:分佈式一致性。在 etcd 中,該分佈式一致性算法由 Raft 一致性算法完成,這個算法本身是比較複雜的有機會再詳細展開,這裏僅做一個簡單的介紹以方便大家對其有一個基本的認知。Raft 一致性算法能夠工作的一個關鍵點是:任意兩個 quorum 的成員之間一定會有一個交集(公共成員),也就是說只要有任意一個 quorum 存活,其中一定存在某一個節點(公共成員),它包含着集羣中所有的被確認提交的數據。正是基於這一原理,Raft 一致性算法設計了一套數據同步機制,在 Leader 任期切換後能夠重新同步上一個 quorum 被提交的所有數據,從而保證整個集羣狀態向前推進的過程中保持數據的一致。

etcd 內部的機制比較複雜,但 etcd 給客戶提供的接口是簡單直接的。如上圖所示,我們可以通過 etcd 提供的客戶端去訪問集羣的數據,也可以直接通過 http 的方式(類似 curl 命令)直接訪問 etcd。在 etcd 內部,其數據表示也是比較簡單的,我們可以直接把 etcd 的數據存儲理解爲一個有序的 map,它存儲着 key-value 數據。同時 etcd 爲了方便客戶端去訂閱數據的變更,也支持了一個 watch 機制,通過 watch 實時地拿到 etcd 中數據的增量更新,從而實現與 etcd 中的數據同步等業務邏輯。

API 介紹

接下來我們看一下 etcd 提供的接口,這裏將 etcd 的接口分爲了 5 組:

  • 第一組是 Put 與 Delete。上圖可以看到 put 與 delete 的操作都非常簡單,只需要提供一個 key 和一個 value,就可以向集羣中寫入數據了,刪除數據的時候只需要指定 key 即可;

  • 第二組是查詢操作。etcd 支持兩種類型的查詢:第一種是指定單個 key 的查詢,第二種是指定的一個 key 的範圍;

  • 第三組是數據訂閱。etcd 提供了 Watch 機制,我們可以利用 watch 實時訂閱到 etcd 中增量的數據更新,watch 支持指定單個 key,也可以指定一個 key 的前綴,在實際應用場景中的通常會採用第二種形勢;

  • 第四組事務操作。etcd 提供了一個簡單的事務支持,用戶可以通過指定一組條件滿足時執行某些動作,當條件不成立的時候執行另一組操作,類似於代碼中的 if else 語句,etcd 確保整個操作的原子性;

  • 第五組是 Leases 接口。Leases 接口是分佈式系統中常用的一種設計模式,其用法後面會具體展開。

數據版本機制

要正確使用 etcd 的 API,必須要知道內部對應數據版本號的基本原理。

首先 etcd 中有個 term 的概念,代表的是整個集羣 Leader 的任期。當集羣發生 Leader 切換,term 的值就會 +1。在節點故障,或者 Leader 節點網絡出現問題,再或者是將整個集羣停止後再次拉起,都會發生 Leader 的切換。

第二個版本號叫做 revision,revision 代表的是全局數據的版本。當數據發生變更,包括創建、修改、刪除,其 revision 對應的都會 +1。特別的,在集羣中跨 Leader 任期之間,revision 都會保持全局單調遞增。正是 revision 的這一特性,使得集羣中任意一次的修改都對應着一個唯一的 revision,因此我們可以通過 revision 來支持數據的 MVCC,也可以支持數據的 Watch。

對於每一個 KeyValue 數據節點,etcd 中都記錄了三個版本:

  • 第一個版本叫做 create_revision,是 KeyValue 在創建時對應的 revision;

  • 第二個叫做 mod_revision,是其數據被操作的時候對應的 revision;

  • 第三個 version 就是一個計數器,代表了 KeyValue 被修改了多少次。

這裏可以用圖的方式給大家展示一下:

在同一個 Leader 任期之內,我們發現所有的修改操作,其對應的 term 值始終都等於 2,而 revision 則保持單調遞增。當重啓集羣之後,我們會發現所有的修改操作對應的 term 值都變成了 3。在新的 Leader 任期內,所有的 term 值都等於3,且不會發生變化,而對應的 revision 值同樣保持單調遞增。從一個更大的維度去看,可以發現在 term=2 和 term=3 的兩個 Leader 任期之間,數據對應的 revision 值依舊保持了全局單調遞增。

mvcc & streaming watch

瞭解 etcd 的版本號控制後,接下來如何使用 etcd 多版本號來實現併發控制以及數據訂閱(Watch)。

在 etcd 中支持對同一個 Key 發起多次數據修改,每次數據修改都對應一個版本號。etcd 在實現上記錄了每一次修改對應的數據,也就就意味着一個 key 在 etcd 中存在多個歷史版本。在查詢數據的時候如果不指定版本號,etcd 會返回 Key 對應的最新版本,當然 etcd 也支持指定一個版本號來查詢歷史數據。

因爲 etcd 將每一次修改都記錄了下來,使用 watch 訂閱數據時,可以支持從任意歷史時刻(指定 revision)開始創建一個 watcher,在客戶端與 etcd 之間建立一個數據管道,etcd 會推送從指定 revision 開始的所有數據變更。etcd 提供的 watch 機制保證,該 Key 的數據後續的被修改之後,通過這個數據管道即時的推送給客戶端。

如下圖所示,etcd 中所有的數據都存儲在一個 b+tree 中(灰色),該 b+tree 保存在磁盤中,並通過 mmap 的方式映射到內存用來支持快速的訪問。灰色的 b+tree 中維護着 revision 到 value 的映射關係,支持通過 revision 查詢對應的數據。因爲 revision 是單調遞增的,當我們通過 watch 來訂閱指定 revision 之後的數據時,僅需要訂閱該 b+ tree 的數據變化即可。

在 etcd 內部還維護着另外一個 btree(藍色),它管理着 key 到 revision 的映射關係。當客戶端使用 key 查詢數據時,首先需要經過藍色的 btree 將 key 轉化爲對應的 revision,再通過灰色的 btree 查詢到對應的數據。

細心的讀者會發現,etcd 將每一次修改都記錄下來會導致數據持續增長,這會帶來內存及磁盤的空間消耗,同時也會影響 b+tree 的查詢效率。爲了解決這一問題,在 etcd 中會運行一個週期性的 Compaction 的機制來清理歷史數據,將一段時間之前的同一個 Key 的多個歷史版本數據清理掉。最終的結果是灰色的 b+tree 依舊保持單調遞增,但可能會出現一些空洞。

mini-transactions

在理解了 mvcc 機制及 watch 機制之後,繼續看 etcd 提供的 mini-transactions 機制。etcd 的 transaction 機制比較簡單,基本可以理解爲一段 if-else 程序,在 if 中可以提供多個操作,如下圖所示:

If 裏面寫了兩個條件,當 Value(key1) 大於 “bar” 並且 Version(key1) 的版本等於 2 的時候,執行 Then 裏面指定的操作:修改 Key2 的數據爲 valueX,同時刪除 Key3 的數據。如果不滿足條件,則執行另外一個操作:Key2 修改爲 valueY。

在 etcd 內部會保證整個事務操作的原子性。也就是說 If 操作所有的比較條件,其看到的視圖一定是一致的。同時它能夠確保多個操作的原子性不會出現 Then 中的操作僅執行了一半的情況。

通過 etcd 提供的事務操作,我們可以在多個競爭中去保證數據讀寫的一致性,比如說前面已經提到過的 Kubernetes 項目,它正是利用了 etcd 的事務機制,來實現多個 KubernetesAPI server 對同樣一個數據修改的一致性。

lease 的概念及用法

lease 是分佈式系統中一個常見的概念,用於代表一個分佈式租約。典型情況下,在分佈式系統中需要去檢測一個節點是否存活的時,就需要租約機制。

上圖示例中的代碼示例首先創建了一個 10s 的租約,如果創建租約後不做任何的操作,那麼 10s 之後,這個租約就會自動過期。接着將 key1 和 key2 兩個 key value 綁定到這個租約之上,這樣當租約過期時 etcd 就會自動清理掉 key1 和 key2,使得節點 key1 和 key2 具備了超時自動刪除的能力。

如果希望這個租約永不過期,需要週期性的調用 KeeyAlive 方法刷新租約。比如說需要檢測分佈式系統中一個進程是否存活,可以在進程中去創建一個租約,並在該進程中週期性的調用 KeepAlive 的方法。如果一切正常,該節點的租約會一致保持,如果這個進程掛掉了,最終這個租約就會自動過期。

在 etcd 中,允許將多個 key 關聯在同一個 lease 之上,這個設計是非常巧妙的,可以大幅減少 lease 對象刷新帶來的開銷。試想一下,如果有大量的 key 都需要支持類似的租約機制,每一個 key 都需要獨立的去刷新租約,這會給 etcd 帶來非常大的壓力。通過多個 key 綁定在同一個 lease 的模式,我們可以將超時間相似的 key 聚合在一起,從而大幅減小租約刷新的開銷,在不失靈活性同時能夠大幅提高 etcd 支持的使用規模。

三、典型的使用場景介紹

元數據存儲

Kubernetes 將自身所用的狀態存儲在 etcd 中,其狀態數據的高可用交給 etcd 來解決,Kubernetes 系統自身不需要再應對複雜的分佈式系統狀態處理,自身的系統架構得到了大幅的簡化。

Server Discovery (Naming Service)

第二個場景是 Service Discovery,也叫做名字服務。在分佈式系統中,通常會出現的一個模式就是需要多個後端(可能是成百上千個進程)來提供一組對等的服務,比如說檢索服務、推薦服務。

對於這樣一種後端服務,通常情況下爲了簡化後端服務的運維成本(節點故障時隨時被替換),後端的這一進程會被類似 Kubernetes 這樣的集羣管理系統所調度,這樣當用戶(或上游服務)調用過來時,我們就需要一個服務發現機制來解決服務路由問題。這一服務發現問題可以利用 etcd 來高效解決,方式如下:

  • 在進程內部啓動之後,可以將自身所在的地址註冊到 etcd;

  • API 網關夠通過 etcd 及時感知到後端進程的地址,當後端進程發生故障遷移時會重新註冊到 etcd 中,API 網關也能夠及時地感知到新的地址;

  • 利用 etcd 提供的 Lease 機制,如果提供服務的進程運行過程中出現了異常(crash),API 網關也可以摘除其流量避免調用超時。

在這一架構中,服務狀態數據被 etcd 接管,API 網關本身也是無狀態的,可以水平地擴展來服務更多的客戶。同時得益於 etcd 的良好性能,可以支持上萬個後端進程的節點,使得這一架構可以服務於大型的企業。

Distributed Coordination: leader election

在分佈式系統中,有一種典型的設計模式就是 Master+Slave。通常情況下,Slave 提供了 CPU、內存、磁盤以及網絡等各種資源 ,而 Master 用來調和這些節點以使其對外提供一個服務(比如分佈式存儲,分佈式計算)。典型的分佈式存儲服務(HDFS)以及分佈式計算服務(Hadoop)它們都是採用了類似這樣的設計模式。這樣的設計模式會有一個典型的問題:Master 節點的可用性。當 Master 故障以後,整個集羣的服務就掛掉了,沒有辦法再服務用戶的請求。

爲了解決這個問題,典型的做法就是啓動多個 Master 節點。因爲 Master 節點內會包含控制邏輯,多個節點之間的狀態同步是非常複雜的,這裏最典型的做法就是通過選主的方式,選出其中一個節點作爲主節點來提供服務,另一個節點處於等待狀態。

通過 etcd 提供的機制可以很容易的實現分佈式進程的選主功能,比如可以通過對同一個 key 的事務寫來實現搶主的邏輯。一般而言,被選主的 Leader 會將自己的 IP 註冊到 etcd 中,使得 Slave 節點能夠及時獲取到當前的 Leader 地址,從而使得系統按照之前單個 Master 節點的方式繼續工作。當 Leader 節點發生異常之後,通過 etcd 能夠選取出一個新的節點成爲主節點,並且註冊新的 IP 之後,Slave 又能夠拉取新的主節點的 IP,繼續恢復服務。

Distributed Coordination 分佈式系統併發控制

在分佈式系統中,當我們去執行一些任務,比如說去升級 OS、或者說升級 OS 上的軟件的時候、又或者去執行一些計算任務的時候,出於對後端服務的瓶頸或者是業務穩定性的考慮,通常情況下需要控制任務的併發度。如果該任務缺少一個調和的 Master 節點,可以通過 etcd 來完成這樣的分佈式系統工作。

在這個模式中通過 etcd 去實現一個分佈式的信號量,並且可以利用 etcd leases 機制來實現自動地剔除掉故障節點。在進程執行過程中,如果進程的運行週期比較長,我們可以將進程運行過程中的一些狀態數據存儲到 etcd,從而使得當進程故障之後且需要恢復到其他地方時,能夠從 etcd 中去恢復一些執行狀態,而不需要重新去完成整個的計算邏輯,以此來加速整個任務的執行效率。

本文總結

本文分享的主要內容就到此爲止了,這裏爲大家簡單總結一下:

  • 第一部分,爲大家介紹了 etcd 項目是如何誕生的,以及在 etcd 發展過程中經歷的幾個重要時刻;

  • 第二部分,爲大家介紹了 etcd 的架構以及其內部的基本操作接口,在理解 etcd 是如何實現高可用的基礎之上,展示了 etcd 數據的一些基本操作以及其內部的實現原理;

  • 第三部分,介紹了三種典型的 etcd 使用場景,以及在對應的場景下,分佈式系統的設計思路。

本文轉載自阿里巴巴雲原生微信公衆號(ID:Alicloudnative)。

相關閱讀:

從零開始入門 K8s:深入剖析 Linux 容器

從零開始入門 K8s:Kubernetes 中的服務發現與負載均衡

從零開始入門 K8s:Kubernetes 網絡概念及策略控制

從零開始入門 K8s:監控與日誌的可觀測性

從零開始入門 K8s:應用存儲和持久化數據卷:存儲快照與拓撲調度

從零開始入門 K8s:應用存儲和持久化數據卷的核心知識

從零開始入門 K8s:應用配置管理

從零開始入門 K8s:應用編排與管理:Job & DaemonSet

從零開始入門 K8s:應用編排與管理

從零開始入門 K8s:K8s 的應用編排與管理

從零開始入門 K8s:詳解 Pod 及容器設計模式

從零開始入門 K8s:詳解 K8s 容器基本概念

從零開始入門 K8s:詳解 K8s 核心概念

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章