Consul服務註冊與服務發現機制

1、什麼是服務註冊中心?

顧名思義,假設你有一個分佈式系統,裏面包含了多個服務,部署在不同的機器上,然後這些不同機器上的服務之間要互相調用。

舉個現實點的例子吧,比如電商系統裏的訂單服務需要調用庫存服務,如下圖所示。

現在的問題在於,訂單服務在192.168.31.154這臺機器上,庫存服務在192.137.1.33這臺機器上。

現在訂單服務是想要調用庫存服務,但是他並不知道庫存服務在哪臺機器上啊!畢竟人家都是在不同機器上的。

所以這個時候就需要服務註冊中心出場了,這個時候你的系統架構中需要引入獨立部署在一臺機器上的服務註冊中心,如下圖所示。

然後訂單服務、庫存服務之類的兄弟,都需要配置上服務註冊中心部署在哪臺機器上,比如192.168.31.45這臺機器。

接着訂單服務、庫存服務他們自己啓動的時候,就得發送請求到到服務註冊中心上去進行服務註冊。也就是說,得告訴服務註冊中心,自己是哪個服務,然後自己部署在哪臺機器上。然後服務註冊中心會把大家註冊上來的信息放在註冊表裏,如下圖。

       接着訂單服務假如想要調用庫存服務,那麼就找服務註冊中心問問:能不能告訴我庫存服務部署在哪臺機器上?服務註冊中心是知道這個信息的,所以就會告訴訂單服務:庫存服務部署在192.1371.133這臺機器上,你就給這臺機器發送請求吧。然後,訂單服務就可以往庫存服務的那臺機器發送請求了,完成了服務間的調用。整個過程,如下圖所示:

       上述就是服務註冊中心的作用、地位以及意義,現在大家應該知道服務註冊中心的作用了吧。好!接着我們就來看看Consul作爲服務註冊中心,他的架構設計原理是什麼?

2、Consul服務註冊中心的整體架構

       如果要基於Consul作爲服務註冊中心,那麼首先必須在每個服務所在的機器上部署一個Consul Agent,作爲一個服務所在機器的代理。然後還得在多臺機器上部署Consul Server,這就是核心的服務註冊中心。這個Consul Agent可以用來收集你的服務信息然後發送給Consul Server,還會對你的服務不停的發送請求檢查他是否健康。然後你要發現別的服務的時候,Consul Agent也會幫你轉發請求給Consul Server,查詢其他服務所在機器。Consul Server一般要求部署3~5臺機器,以保證高可用以及數據一致性。他們之間會自動實現數據同步,而且Consul Server集羣會自動選舉出一臺機器作爲leader,其他的Consul Server就是follower。咱們看下面的圖,先感受一下這個Consul他整體的架構。

3、Consul如何通過Raft協議實現強一致性?

      Eureka服務註冊中心是不保證數據一致性的。這樣的話,很可能你註冊的服務,其他人是發現不了的,或者很遲才能發現。

OK,那麼這裏就來討論一下Consul是如何實現數據一致性的。首先,大家知道Consul Server是部署集羣的,而且他會選舉出來一臺Server作爲Leader。

      接下來各個服務發送的註冊請求都會落地給Leader,由Leader同步給其他Follower。所以首先第一點,Leader Server是絕對有最新的服務註冊信息的,是不是?比如庫存服務發起註冊了,那麼Leader Server上一定有庫存服務的註冊信息。接着如果比如訂單服務要發現庫存服務的話,這個查詢請求會發送給Leader Server。這樣服務註冊和發現,都是通過一臺Leader Server來進行的,就可以保證服務註冊數據的強一致性了,大家看下圖。

       接着大家想,假如說庫存服務在註冊的時候數據剛寫到Leader Server,結果Leader Server就宕機了,這時候怎麼辦?那麼此時這條註冊數據就丟失了,訂單服務就沒法發現那個庫存服務了。沒關係,這裏Consul會基於Raft協議來解決這個問題

       首先,庫存服務註冊到Leader Server的時候,會採取Raft協議,要求必須讓Leader Server把這條註冊數據複製給大部分的Follower Server纔算成功。這就保證了,如果你認爲自己註冊成功了,那麼必然是多臺Consul Server都有這條註冊數據了。如果你剛發送給Leader Server他自己就宕機了,那麼這次註冊會認爲失敗。此時,Consul Server集羣會重新選舉一個Leader Server出來,你需要再次重新註冊。這樣就可以保證你註冊成功的數據絕對不會丟,然後別人發現服務的時候一定可以從Leader Server上獲取到最新的強一致的註冊數據。

整個過程,如下圖所示:

上面的圖就可以看到,只要你註冊的時候基於Raft協議強制同步到大多數Server,哪怕是Leader掛了,也會選舉新的Leader。這樣就可以讓別人從新的Leader Server來發現你這個服務,所以數據是絕對強一致的。

4、Consul如何通過Agent實現分佈式健康檢查?

      最後說說Consul是如何通過各個服務機器上部署Agent來實現分佈式健康檢查的。集中式的心跳機制,比如傳統的Eureka,是讓各個服務都必須每隔一定時間發送心跳到Eureka Server。如果一段時間沒收到心跳,那麼就認爲這個服務宕機了。

      但是這種集中式的心跳機制會對Eureka Server造成較大的心跳請求壓力,實際上平時Eureka Server接收最多的請求之一就是成千上萬服務發送過來的心跳請求。

     所以Consul在這塊進行了架構優化,引入了Agent概念。

      每個機器上的Consul Agent會不斷的發送請求檢查服務是否健康,是否宕機。如果服務宕機了,那麼就會通知Consul Server。怎麼樣?是不是發現各個服務自己不用再發送心跳請求去Server了?減小了Server這部分的壓力吧?沒錯,這就是Consul基於Agent實現的分佈式健康檢查機制,可以大幅度的減小Server端的壓力。這樣一來,哪怕你就部署個三五臺機器,可以輕鬆支持成千上萬個服務。咱們再來一張圖,一起來看看:

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章