Docker學習筆記 — etcd應用場景

要問etcd是什麼?很多人第一反應可能是一個鍵值存儲倉庫,卻沒有重視官方定義的後半句,用於配置共享和服務發現。

A highly-available key value store for shared configuration and service discovery.

實際上,etcd作爲一個受到ZooKeeper與doozer啓發而催生的項目,除了擁有與之類似的功能外,更專注於以下四點。

簡單:基於HTTP+JSON的API讓你用curl就可以輕鬆使用。
安全:可選SSL客戶認證機制。
快速:每個實例每秒支持一千次寫操作。
可信:使用Raft算法充分實現了分佈式。

隨着雲計算的不斷髮展,分佈式系統中涉及到的問題越來越受到人們重視。受阿里中間件團隊對ZooKeeper典型應用場景一覽一文的啓發,筆者根據自己的理解也總結了一些etcd的經典使用場景。讓我們來看看etcd這個基於Raft強一致性算法的分佈式存儲倉庫能給我們帶來哪些幫助。

值得注意的是,分佈式系統中的數據分爲控制數據和應用數據。使用etcd的場景默認處理的數據都是控制數據,對於應用數據,只推薦數據量很小,但是更新訪問頻繁的情況。

場景一:服務發現(Service Discovery)


服務發現要解決的也是分佈式系統中最常見的問題之一,即在同一個分佈式集羣中的進程或服務,要如何才能找到對方並建立連接。本質上來說,服務發現就是想要了解集羣中是否有進程在監聽udp或tcp端口,並且通過名字就可以查找和連接。要解決服務發現的問題,需要有下面三大支柱,缺一不可。

一個強一致性、高可用的服務存儲目錄。基於Raft算法的etcd天生就是這樣一個強一致性高可用的服務存儲目錄。

一種註冊服務和監控服務健康狀態的機制。用戶可以在etcd中註冊服務,並且對註冊的服務設置key TTL,定時保持服務的心跳以達到監控健康狀態的效果。

一種查找和連接服務的機制。通過在etcd指定的主題下注冊的服務也能在對應的主題下查找到。爲了確保連接,我們可以在每個服務機器上都部署一個Proxy模式的etcd,這樣就可以確保能訪問etcd集羣的服務都能互相連接。

這裏寫圖片描述
圖1 服務發現示意圖

下面我們來看服務發現對應的具體場景。

微服務協同工作架構中,服務動態添加。隨着Docker容器的流行,多種微服務共同協作,構成一個相對功能強大的架構的案例越來越多。透明化的動態添加這些服務的需求也日益強烈。通過服務發現機制,在etcd中註冊某個服務名字的目錄,在該目錄下存儲可用的服務節點的IP。在使用服務的過程中,只要從服務目錄下查找可用的服務節點去使用即可。

這裏寫圖片描述
圖2 微服務協同工作

PaaS平臺中應用多實例與實例故障重啓透明化。PaaS平臺中的應用一般都有多個實例,通過域名,不僅可以透明的對這多個實例進行訪問,而且還可以做到負載均衡。但是應用的某個實例隨時都有可能故障重啓,這時就需要動態的配置域名解析(路由)中的信息。通過etcd的服務發現功能就可以輕鬆解決這個動態配置的問題。

這裏寫圖片描述
圖3 雲平臺多實例透明化

場景二:消息發佈與訂閱


在分佈式系統中,最適用的一種組件間通信方式就是消息發佈與訂閱。即構建一個配置共享中心,數據提供者在這個配置中心發佈消息,而消息使用者則訂閱他們關心的主題,一旦主題有消息發佈,就會實時通知訂閱者。通過這種方式可以做到分佈式系統配置的集中式管理與動態更新。

應用中用到的一些配置信息放到etcd上進行集中管理。這類場景的使用方式通常是這樣:應用在啓動的時候主動從etcd獲取一次配置信息,同時,在etcd節點上註冊一個Watcher並等待,以後每次配置有更新的時候,etcd都會實時通知訂閱者,以此達到獲取最新配置信息的目的。

分佈式搜索服務中,索引的元信息和服務器集羣機器的節點狀態存放在etcd中,供各個客戶端訂閱使用。使用etcd的key TTL功能可以確保機器狀態是實時更新的。

分佈式日誌收集系統。這個系統的核心工作是收集分佈在不同機器的日誌。收集器通常是按照應用(或主題)來分配收集任務單元,因此可以在etcd上創建一個以應用(主題)命名的目錄P,並將這個應用(主題相關)的所有機器ip,以子目錄的形式存儲到目錄P上,然後設置一個etcd遞歸的Watcher,遞歸式的監控應用(主題)目錄下所有信息的變動。這樣就實現了機器IP(消息)變動的時候,能夠實時通知到收集器調整任務分配。

系統中信息需要動態自動獲取與人工干預修改信息請求內容的情況。通常是暴露出接口,例如JMX接口,來獲取一些運行時的信息。引入etcd之後,就不用自己實現一套方案了,只要將這些信息存放到指定的etcd目錄中即可,etcd的這些目錄就可以通過HTTP的接口在外部訪問。

這裏寫圖片描述
圖4 消息發佈與訂閱

場景三:負載均衡


在場景一中也提到了負載均衡,本文所指的負載均衡均爲軟負載均衡。分佈式系統中,爲了保證服務的高可用以及數據的一致性,通常都會把數據和服務部署多份,以此達到對等服務,即使其中的某一個服務失效了,也不影響使用。由此帶來的壞處是數據寫入性能下降,而好處則是數據訪問時的負載均衡。因爲每個對等服務節點上都存有完整的數據,所以用戶的訪問流量就可以分流到不同的機器上。

etcd本身分佈式架構存儲的信息訪問支持負載均衡。etcd集羣化以後,每個etcd的核心節點都可以處理用戶的請求。所以,把數據量小但是訪問頻繁的消息數據直接存儲到etcd中也是個不錯的選擇,如業務系統中常用的二級代碼表(在表中存儲代碼,在etcd中存儲代碼所代表的具體含義,業務系統調用查表的過程,就需要查找表中代碼的含義)。

利用etcd維護一個負載均衡節點表。etcd可以監控一個集羣中多個節點的狀態,當有一個請求發過來後,可以輪詢式的把請求轉發給存活着的多個狀態。類似KafkaMQ,通過ZooKeeper來維護生產者和消費者的負載均衡。同樣也可以用etcd來做ZooKeeper的工作。

這裏寫圖片描述
圖5 負載均衡

場景四:分佈式通知與協調


這裏說到的分佈式通知與協調,與消息發佈和訂閱有些相似。都用到了etcd中的Watcher機制,通過註冊與異步通知機制,實現分佈式環境下不同系統之間的通知與協調,從而對數據變更做到實時處理。實現方式通常是這樣:不同系統都在etcd上對同一個目錄進行註冊,同時設置Watcher觀測該目錄的變化(如果對子目錄的變化也有需要,可以設置遞歸模式),當某個系統更新了etcd的目錄,那麼設置了Watcher的系統就會收到通知,並作出相應處理。

通過etcd進行低耦合的心跳檢測。檢測系統和被檢測系統通過etcd上某個目錄關聯而非直接關聯起來,這樣可以大大減少系統的耦合性。

通過etcd完成系統調度。某系統有控制檯和推送系統兩部分組成,控制檯的職責是控制推送系統進行相應的推送工作。管理人員在控制檯作的一些操作,實際上是修改了etcd上某些目錄節點的狀態,而etcd就把這些變化通知給註冊了Watcher的推送系統客戶端,推送系統再作出相應的推送任務。

通過etcd完成工作彙報。大部分類似的任務分發系統,子任務啓動後,到etcd來註冊一個臨時工作目錄,並且定時將自己的進度進行彙報(將進度寫入到這個臨時目錄),這樣任務管理者就能夠實時知道任務進度。

這裏寫圖片描述
圖6 分佈式協同工作

場景五:分佈式鎖


因爲etcd使用Raft算法保持了數據的強一致性,某次操作存儲到集羣中的值必然是全局一致的,所以很容易實現分佈式鎖。鎖服務有兩種使用方式,一是保持獨佔,二是控制時序。

保持獨佔即所有獲取鎖的用戶最終只有一個可以得到。etcd爲此提供了一套實現分佈式鎖原子操作CAS(CompareAndSwap)的API。通過設置prevExist值,可以保證在多個節點同時去創建某個目錄時,只有一個成功。而創建成功的用戶就可以認爲是獲得了鎖。

控制時序,即所有想要獲得鎖的用戶都會被安排執行,但是獲得鎖的順序也是全局唯一的,同時決定了執行順序。etcd爲此也提供了一套API(自動創建有序鍵),對一個目錄建值時指定爲POST動作,這樣etcd會自動在目錄下生成一個當前最大的值爲鍵,存儲這個新的值(客戶端編號)。同時還可以使用API按順序列出所有當前目錄下的鍵值。此時這些鍵的值就是客戶端的時序,而這些鍵中存儲的值可以是代表客戶端的編號。

這裏寫圖片描述
圖7 分佈式鎖

場景六:分佈式隊列


分佈式隊列的常規用法與場景五中所描述的分佈式鎖的控制時序用法類似,即創建一個先進先出的隊列,保證順序。

另一種比較有意思的實現是在保證隊列達到某個條件時再統一按順序執行。這種方法的實現可以在/queue這個目錄中另外建立一個/queue/condition節點。

condition可以表示隊列大小。比如一個大的任務需要很多小任務就緒的情況下才能執行,每次有一個小任務就緒,就給這個condition數字加1,直到達到大任務規定的數字,再開始執行隊列裏的一系列小任務,最終執行大任務。
condition可以表示某個任務在不在隊列。這個任務可以是所有排序任務的首個執行程序,也可以是拓撲結構中沒有依賴的點。通常,必須執行這些任務後才能執行隊列中的其他任務。
condition還可以表示其它的一類開始執行任務的通知。可以由控制程序指定,當condition出現變化時,開始執行隊列任務。

這裏寫圖片描述
圖8 分佈式隊列

場景七:集羣監控與Leader競選


通過etcd來進行監控實現起來非常簡單並且實時性強。

前面幾個場景已經提到Watcher機制,當某個節點消失或有變動時,Watcher會第一時間發現並告知用戶。
節點可以設置TTL key,比如每隔30s發送一次心跳使代表該機器存活的節點繼續存在,否則節點消失。
這樣就可以第一時間檢測到各節點的健康狀態,以完成集羣的監控要求。

另外,使用分佈式鎖,可以完成Leader競選。這種場景通常是一些長時間CPU計算或者使用IO操作的機器,只需要競選出的Leader計算或處理一次,就可以把結果複製給其他的Follower。從而避免重複勞動,節省計算資源。

這個的經典場景是搜索系統中建立全量索引。如果每個機器都進行一遍索引的建立,不但耗時而且建立索引的一致性不能保證。通過在etcd的CAS機制同時創建一個節點,創建成功的機器作爲Leader,進行索引計算,然後把計算結果分發到其它節點。

這裏寫圖片描述
圖9 Leader競選

場景八:爲什麼用etcd而不用ZooKeeper?


閱讀了“ZooKeeper典型應用場景一覽”一文的讀者可能會發現,etcd實現的這些功能,ZooKeeper都能實現。那麼爲什麼要用etcd而非直接使用ZooKeeper呢?

相較之下,ZooKeeper有如下缺點:
1. 複雜。ZooKeeper的部署維護複雜,管理員需要掌握一系列的知識和技能;而Paxos強一致性算法也是素來以複雜難懂而聞名於世;另外,ZooKeeper的使用也比較複雜,需要安裝客戶端,官方只提供了Java和C兩種語言的接口。
2. Java編寫。這裏不是對Java有偏見,而是Java本身就偏向於重型應用,它會引入大量的依賴。而運維人員則普遍希望保持強一致、高可用的機器集羣儘可能簡單,維護起來也不易出錯。
3. 發展緩慢。Apache基金會項目特有的“Apache Way”在開源界飽受爭議,其中一大原因就是由於基金會龐大的結構以及鬆散的管理導致項目發展緩慢。

而etcd作爲一個後起之秀,其優點也很明顯。
1. 簡單。使用Go語言編寫部署簡單;使用HTTP作爲接口使用簡單;使用Raft算法保證強一致性讓用戶易於理解。
2. 數據持久化。etcd默認數據一更新就進行持久化。
3. 安全。etcd支持SSL客戶端安全認證。

最後,etcd作爲一個年輕的項目,真正告訴迭代和開發中,這既是一個優點,也是一個缺點。優點是它的未來具有無限的可能性,缺點是無法得到大項目長時間使用的檢驗。然而,目前CoreOS、Kubernetes和CloudFoundry等知名項目均在生產環境中使用了etcd,所以總的來說,etcd值得你去嘗試。



轉載自:etcd:從應用場景到實現原理的全方位解讀

發佈了88 篇原創文章 · 獲贊 91 · 訪問量 108萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章