分佈式架構知識體系

https://mp.weixin.qq.com/s/9xINMH9tJlmsjH6QdUPFxQ

1.問題

  • 1、何爲分佈式何爲微服務?

  • 2、爲什麼需要分佈式?

  • 3、分佈式核心理論基礎,節點、網絡、時間、順序,一致性?

  • 4、分佈式是系統有哪些設計模式?

  • 5、分佈式有哪些類型?

  • 6、如何實現分佈式?

2.關鍵詞

節點,時間,一致性,CAP,ACID,BASE,P2P,機器伸縮,網絡變更,負載均衡,限流,鑑權,服務發現,服務編排,降級,熔斷,冪等,分庫分表,分片分區,自動運維,容錯處理,全棧監控,故障恢復,性能調優

3.全文概要

隨着移動互聯網的發展智能終端的普及,計算機系統早就從單機獨立工作過渡到多機器協作工作。計算機以集羣的方式存在,按照分佈式理論的指導構建出龐大複雜的應用服務,也已經深入人心。本文力求從分佈式基礎理論,架構設計模式,工程應用,部署運維,業界方案這幾大方面,介紹基於MSA(微服務架構)的分佈式的知識體系大綱。從而對SOA到MSA進化有個立體的認識,從概念上和工具應用上更近一步瞭解微服務分佈式的本質,身臨其境的感受如何搭建全套微服務架構的過程。

4.基礎理論

4.1SOA到MSA的進化

SOA面向服務架構

由於業務發展到一定層度後,需要對服務進行解耦,進而把一個單一的大系統按邏輯拆分成不同的子系統,通過服務接口來通訊,面向服務的設計模式,最終需要總線集成服務,而且大部分時候還共享數據庫,出現單點故障的時候會導致總線層面的故障,更進一步可能會把數據庫拖垮,所以纔有了更加獨立的設計方案的出現。

MSA微服務架構

微服務是真正意義上的獨立服務,從服務入口到數據持久層,邏輯上都是獨立隔離的,無需服務總線來接入,但同時增加了整個分佈式系統的搭建和管理難度,需要對服務進行編排和管理,所以伴隨着微服務的興起,微服務生態的整套技術棧也需要無縫接入,才能支撐起微服務的治理理念。

4.2節點與網絡

節點

傳統的節點也就是一臺單體的物理機,所有的服務都揉進去包括服務和數據庫;隨着虛擬化的發展,單臺物理機往往可以分成多臺虛擬機,實現資源利用的最大化,節點的概念也變成單臺虛擬機上面服務;近幾年容器技術逐漸成熟後,服務已經徹底容器化,也就是節點只是輕量級的容器服務。總體來說,節點就是能提供單位服務的邏輯計算資源的集合。

網絡

分佈式架構的根基就是網絡,不管是局域網還是公網,沒有網絡就無法把計算機聯合在一起工作,但是網絡也帶來了一系列的問題。網絡消息的傳播有先後,消息丟失和延遲是經常發生的事情,我們定義了三種網絡工作模式:

同步網絡

  • 節點同步執行

  • 消息延遲有限

  • 高效全局鎖

半同步網絡

  • 鎖範圍放寬

異步網絡

  • 節點獨立執行

  • 消息延遲無上限

  • 無全局鎖

  • 部分算法不可行

    常用網絡傳輸層有兩大協議的特點簡介:

TCP協議

  • 首先tcp儘管其他可以更快

  • tcp解決重複和亂序問題

UDP協議

  • 常量數據流

  • 丟包不致命

4.3時間與順序

時間

慢速物理時空中,時間獨自在流淌着,對於串行的事務來說,很簡單的就是跟着時間的腳步走就可以,先來後到的發生。而後我們發明了時鐘來刻畫以往發生的時間點,時鐘讓這個世界盡然有序。但是對於分佈式世界來說,跟時間打交道着實是一件痛苦的事情。分佈式世界裏面,我們要協調不同節點之間的先來後到關係,但是不同節點本身承認的時間又各執己見,於是我們創造了網絡時間協議(NTP)試圖來解決不同節點之間的標準時間,但是NTP本身表現並不如人意,所以我們又構造除了邏輯時鐘,最後改進爲向量時鐘:

NTP的一些缺點,無法完全滿足分佈式下併發任務的協調問題

  • 節點間時間不同步

  • 硬件時鐘漂移

  • 線程可能休眠

  • 操作系統休眠

  • 硬件休眠

邏輯時鐘

  • 定義事件先來後到

  • t’ = max(t, t_msg + 1)

     

向量時鐘

  • t_i’ = max(t_i, t_msg_i)

原子鐘

順序

有了衡量時間的工具,解決順序問題自然就是水到渠成了。因爲整個分佈式的理論基礎就是如何協商不同節點的一致性問題,而順序則是一致性理論的基本概念,所以前文我們才需要花時間介紹衡量時間的刻度和工具。

4.4一致性理論

說到一致性理論,我們必須看一張關於一致性強弱對系統建設影響的對比圖:

該圖對比了不同一致性算法下的事務,性能,錯誤,延遲的平衡。

強一致性ACID

單機環境下我們對傳統關係型數據庫有苛刻的要求,由於存在網絡的延遲和消息丟失,ACID便是保證事務的原則,這四大原則甚至我們都不需要解釋出來就耳熟能詳了:

  • Atomicity:原子性,一個事務中的所有操作,要麼全部完成,要麼全部不完成,不會結束在中間某個環節。

  • Consistency:一致性,在事務開始之前和事務結束以後,數據庫的完整性沒有被破壞。

  • Isolation:隔離性,數據庫允許多個併發事務同時對其數據進行讀寫和修改的能力,隔離性可以防止多個事務併發執行時由於交叉執行而導致數據的不一致。

  • Durabilit:事務處理結束後,對數據的修改就是永久的,即便系統故障也不會丟失。

分佈式一致性CAP

分佈式環境下,我們無法保證網絡的正常連接和信息的傳送,於是發展出了CAP/FLP/DLS這三個重要的理論:

  • CAP:分佈式計算系統不可能同時確保一致性(Consistency)、可用性(Availablity)和分區容忍性(Partition)。

  • FLP:在異步環境中,如果節點間的網絡延遲沒有上限,只要有一個惡意的節點存在,就沒有算法能在有限的時間內達成共識。

  • DLS:

    (1)在一個部分同步網絡的模型(也就是說:網絡延時有界限但是我們並不知道在哪裏)下運行的協議可以容忍1/3任意(換句話說,拜占庭)錯誤;

    (2)在一個異步模型中的確定性的協議(沒有網絡延時上限)不能容錯(不過這個論文沒有提起隨機化算法可以容忍1/3的錯誤);

    (3)同步模型中的協議(網絡延時可以保證小於已知d時間)可以,令人吃驚的,達到100%容錯,雖然對1/2的節點出錯可以發生的情況有所限制

弱一致性BASE

多數情況下,其實我們也並非一定要求強一致性,部分業務可以容忍一定程度的延遲一致,所以爲了兼顧效率,發展出來了最終一致性理論BASE,BASE是指基本可用(Basically Available)、軟狀態( Soft State)、最終一致性( Eventual Consistency)

  • 基本可用(Basically Available):基本可用是指分佈式系統在出現故障的時候,允許損失部分可用性,即保證核心可用。

  • 軟狀態(Soft State):軟狀態是指允許系統存在中間狀態,而該中間狀態不會影響系統整體可用性。分佈式存儲中一般一份數據至少會有三個副本,允許不同節點間副本同步的延時就是軟狀態的體現。

  • 最終一致性(Eventual Consistency):最終一致性是指系統中的所有數據副本經過一定時間後,最終能夠達到一致的狀態。弱一致性和強一致性相反,最終一致性是弱一致性的一種特殊情況。

一致性算法

分佈式架構的核心就在一致性的實現和妥協,那麼如何設計一套算法來保證不同節點之間的通信和數據達到無限趨向一致性,就非常重要了。保證不同節點在充滿不確定性網絡環境下能達成相同副本的一致性是非常困難的,業界對該課題也做了大量的研究。

首先我們要了解一致性的大前提原則(CALM):

CALM原則的全稱是 Consistency and Logical Monotonicity ,主要描述的是分佈式系統中單調邏輯與一致性的關係,它的內容如下,參考consistency as logical monotonicity

  • 在分佈式系統中,單調的邏輯都能保證 “最終一致性”,這個過程中不需要依賴中心節點的調度

  • 任意分佈式系統,如果所有的非單調邏輯都有中心節點調度,那麼這個分佈式系統就可以實現最終“一致性”

然後再關注分佈式系統的數據結構CRDT(Conflict-Free Replicated Data Types):

我們瞭解到分佈式一些規律原則之後,就要着手考慮如何來實現解決方案,一致性算法的前提是數據結構,或者說一切算法的根基都是數據結構,設計良好的數據結構加上精妙的算法可以高效的解決現實的問題。經過前人不斷的探索,我們得知分佈式系統被廣泛採用的數據結構CRDT。

參考《談談CRDT》,A comprehensive study of Convergent and Commutative Replicated Data Types

  • 基於狀態(state-based):即將各個節點之間的CRDT數據直接進行合併,所有節點都能最終合併到同一個狀態,數據合併的順序不會影響到最終的結果。

  • 基於操作(operation-based):將每一次對數據的操作通知給其他節點。只要節點知道了對數據的所有操作(收到操作的順序可以是任意的),就能合併到同一個狀態。

瞭解數據結構後,我們需要來關注一下分佈式系統的一些重要的協議HATs(Highly Available Transactions),ZAB(Zookeeper Atomic Broadcast):

參考《高可用事務》,《ZAB協議分析》

最後要學習的是業界主流的一致性算法

說實話具體的算法我也還沒完全搞懂,一致性算法是分佈式系統最核心本質的內容,這部分的發展也會影響架構的革新,不同場景的應用也催生不同的算法

  • Paxos:《優雅的Paxos算法》

  • Raft :《Raft 一致性算法》

  • Gossip:《Gossip Visualization》

這一節我們說完分佈式系統裏面核心理論基礎,如何達成不同節點之間的數據一致性,下面我們將會講到目前都有哪些主流的分佈式系統。

5.場景分類

5.1文件系統

單臺計算機的存儲始終有上限,隨着網絡的出現,多臺計算機協作存儲文件的方案也相繼被提出來。最早的分佈式文件系統其實也稱爲網絡文件系統,第一個文件服務器在1970年代被發展出來。在1976年迪吉多公司設計出File Access Listener(FAL),而現代分佈式文件系統則出自赫赫有名的Google的論文,《The Google File System》奠定了分佈式文件系統的基礎。現代主流分佈式文件系統參考《分佈式文件系統對比》,下面列舉幾個常用的文件系統

  • HDFS

  • FastDFS

  • Ceph

  • mooseFS

5.2數據庫

數據庫當然也是屬於文件系統,主數據增加了事務,檢索,擦除等高級特性,所以複雜度又增加了,既要考慮數據一致性也得保證足夠的性能。傳統關係型數據庫爲了兼顧事務和性能的特性,在分佈式方面的發展有限,非關係型數據庫擺脫了事務的強一致性束縛,達到了最終一致性的效果,從而有了飛躍的發展,NoSql(Not Only Sql)也產生了多個架構的數據庫類型,包括KV,列式存儲,文檔類型等。

  • 列式存儲:Hbase

  • 文檔存儲:Elasticsearch,MongoDB

  • KV類型:Redis

  • 關係型:Spanner

5.3計算

分佈式計算系統構建在分佈式存儲的基礎上,充分發揮分佈式系統的數據冗餘災備,多副本高效獲取數據的特性,進而並行計算,把原本需要長時間計算的任務拆分成多個任務並行處理,從而提高了計算效率。分佈式計算系統在場景上分爲離線計算,實時計算和流式計算。

  • 離線:Hadoop

  • 實時:Spark

  • 流式:Storm,Flink/Blink

5.4緩存

緩存作爲提升性能的利器無處不在,小到CPU緩存架構,大道分佈式應用存儲。分佈式緩存系統提供了熱點數據的隨機訪問機制,大大了提升了訪問時間,但是帶來的問題是如何保證數據的一致性,引入分佈式鎖來解決這個問題,主流的分佈式存儲系統基本就是Redis了

  • 持久化:Redis

  • 非持久化:Memcache

5.5消息

分佈式消息隊列系統是消除異步帶來一系列的複雜步驟的一大利器,多線程高併發場景先我們常常要謹慎的去設計業務代碼,來保證多線程併發情況下不出現資源競爭導致的死鎖問題。而消息隊列以一種延遲消費的模式將異步任務都存到隊列,然後再逐個消化。

  • Kafka

  • RabbitMQ

  • RocketMQ

  • ActiveMQ

5.6監控

分佈式系統從單機到集羣的形態發展,複雜度也大大提高,所以對整個系統的監控也是必不可少。

  • Zookeeper

5.7應用

分佈式系統的核心模塊就是在應用如何處理業務邏輯,應用直接的調用依賴於特定的協議來通信,有基於RPC協議的也有基於通用的HTTP協議。

  • HSF

  • Dubble

5.8日誌

錯誤對應分佈式系統是家常便飯,而且我們設計系統的時候本身就需要把容錯作爲普遍存在的現象來考慮。那麼當出現故障的時候,快速恢復和排查故障就顯得非常重要了。分佈式日誌採集存儲和檢索則可以給我提供有力的工具來定位請求鏈路中出現問題的環節。

  • 日誌採集:flume

  • 日誌存儲:ElasticSearch/Solr,SLS

  • 日誌定位:Zipkin

5.9賬本

前文我們提到所謂分佈式系統,是迫於單機的性能有限,而堆硬件卻又無法無休止的增加,單機堆硬件最終也會遇到性能增長曲線的瓶頸。於是我們才採用了多臺計算機來幹同樣的活,但是這樣的分佈式系統始終需要中心化的節點來監控或者調度系統的資源,即使該中心節點也可能是多節點組成。而區塊鏈則是真正的區中心化分佈式系統,系統裏面纔有P2P網絡協議各自通信,沒有真正意義的中心節點,彼此按照區塊鏈節點的算力,權益等機制來協調新區塊的產生。

  • 比特幣

  • 以太坊

6.設計模式

上節我們列舉了不同場景下不同分佈式系統架構扮演的角色和實現的功能,本節我們更進一步歸納分佈式系統設計的時候是如何考慮架構設計的,不同設計方案直接的區別和側重點,不同場景需要選擇合作設計模式,來減少試錯的成本,設計分佈式系統需要考慮以下的問題。

6.1可用性

可用性是系統運行和工作的時間比例,通常以正常運行時間的百分比來衡量。它可能受系統錯誤,基礎架構問題,惡意攻擊和系統負載的影響。分佈式系統通常爲用戶提供服務級別協議(SLA),因此應用程序必須設計爲最大化可用性。

  • 健康檢查:系統實現全鏈路功能檢查,外部工具定期通過公開端點訪問系統

  • 負載均衡:使用隊列起到削峯作用,作爲請求和服務之間的緩衝區,以平滑間歇性的重負載

  • 節流:限制應用級別、租戶或整個服務所消耗資源的範圍

6.2數據管理

數據管理是分佈式系統的關鍵要素,並影響大多數質量的屬性。由於性能,可擴展性或可用性等原因,數據通常託管在不同位置和多個服務器上,這可能帶來一系列挑戰。例如,必須維護數據一致性,並且通常需要跨不同位置同步數據。

  • 緩存:根據需要將數據從數據存儲層加載到緩存

  • CQRS(Command Query Responsibility Segregation):    命令查詢職責分離

  • 事件溯源:僅使用追加方式記錄域中完整的系列事件

  • 索引表:在經常查詢引用的字段上創建索引

  • 物化視圖:生成一個或多個數據預填充視圖

  • 拆分:將數據拆分爲水平的分區或分片

6.3設計與實現

良好的設計包括諸如組件設計和部署的一致性,簡化管理和開發的可維護性,以及允許組件和子系統用於其他應用程序和其他方案的可重用性等因素。在設計和實施階段做出的決策對分佈式系統和服務質量和總體擁有成本產生巨大影響。

  • 代理:反向代理

  • 適配器:    在現代應用程序和遺留系統之間實現適配器層

  • 前後端分離:    後端服務提供接口供前端應用程序調用

  • 計算資源整合:將多個相關任務或操作合併到一個計算單元中

  • 配置分離:將配置信息從應用程序部署包中移出到配置中心

  • 網關聚合:使用網關將多個單獨的請求聚合到一個請求中

  • 網關卸載:將共享或專用服務功能卸載到網關代理

  • 網關路由:使用單個端點將請求路由到多個服務

  • 領導人選舉:通過選擇一個實例作爲負責管理其他實例管理員,協調分佈式系統的雲

  • 管道和過濾器:將複雜的任務分解爲一系列可以重複使用的單獨組件

  • 邊車:將應用的監控組件部署到單獨的進程或容器中,以提供隔離和封裝

  • 靜態內容託管:將靜態內容部署到CDN,加速訪問效率

6.4消息

分佈式系統需要一個連接組件和服務的消息傳遞中間件,理想情況是以鬆散耦合的方式,以便最大限度地提高可伸縮性。異步消息傳遞被廣泛使用,並提供許多好處,但也帶來了諸如消息排序,冪等性等挑戰

  • 競爭消費者:多線程併發消費

  • 優先級隊列:    消息隊列分優先級,優先級高的先被消費

6.5管理與監控

分佈式系統在遠程數據中心中運行,無法完全控制基礎結構,這使管理和監視比單機部署更困難。應用必須公開運行時信息,管理員可以使用這些信息來管理和監視系統,以及支持不斷變化的業務需求和自定義,而無需停止或重新部署應用。

6.6性能與擴展

性能表示系統在給定時間間隔內執行任何操作的響應性,而可伸縮性是系統處理負載增加而不影響性能或容易增加可用資源的能力。分佈式系統通常會遇到變化的負載和活動高峯,特別是在多租戶場景中,幾乎是不可能預測的。相反,應用應該能夠在限制範圍內擴展以滿足需求高峯,並在需求減少時進行擴展。可伸縮性不僅涉及計算實例,還涉及其他元素,如數據存儲,消息隊列等。

6.7彈性

彈性是指系統能夠優雅地處理故障並從故障中恢復。分佈式系統通常是多租戶,使用共享平臺服務,競爭資源和帶寬,通過Internet進行通信,以及在商用硬件上運行,意味着出現瞬態和更永久性故障的可能性增加。爲了保持彈性,必須快速有效地檢測故障並進行恢復。

  • 隔離:將應用程序的元素隔離到池中,以便在其中一個失敗時,其他元素將繼續運行。

  • 斷路器:處理連接到遠程服務或資源時可能需要不同時間修復的故障。

  • 補償交易:撤消一系列步驟執行的工作,這些步驟共同定義最終一致的操作

  • 健康檢查:系統實現全鏈路功能檢查,外部工具定期通過公開端點訪問系統

  • 重試:通過透明地重試先前失敗的操作,使應用程序在嘗試連接到服務或網絡資源時處理預期的臨時故障

6.8安全

安全性是系統能夠防止在設計使用之外的惡意或意外行爲,並防止泄露或丟失信息。分佈式系統在受信任的本地邊界之外的Internet上運行,通常向公衆開放,並且可以爲不受信任的用戶提供服務。必須以保護應用程序免受惡意攻擊,限制僅允許對已批准用戶的訪問,並保護敏感數據。

  • 聯合身份:將身份驗證委派給外部身份提供商

  • 看門人:    通過使用專用主機實例來保護應用程序和服務,該實例充當客戶端與應用程序或服務之間的代理,驗證和清理請求,並在它們之間傳遞請求和數據

  • 代客鑰匙:使用爲客戶端提供對特定資源或服務的受限直接訪問的令牌或密鑰。

7.工程應用

前文我們介紹了分佈式系統的核心理論,面臨的一些難題和解決問題的折中思路,羅列了現有主流分佈式系統的分類,而且歸納了建設分佈式系統的一些方法論,那麼接下來我們將從工程角度來介紹真刀真槍搭建分佈式系統包含的內容和步驟。

7.1資源調度

巧婦難爲無米之炊,我們一切的軟件系統都是構建在硬件服務器的基礎上,從最開始的物理機直接部署軟件系統,到虛擬機的應用,最後到了資源上雲容器化,硬件資源的使用也開始了集約化的管理。本節從對比的是傳統運維角色對應的職責範圍,在devops環境下,開發運維一體化,我們要實現的也是資源的靈活高效使用。

彈性伸縮

過去軟件系統隨着用戶量增加需要增加機器資源的話,傳統的方式就是找運維申請機器,然後部署好軟件服務接入集羣,整個過程依賴的是運維人員的人肉經驗,效率低下而且容易出錯。微服務分佈式則無需人肉增加物理機器,在容器化技術的支撐下,我們只需要申請雲資源,然後執行容器腳本即可。

  • 應用擴容

    用戶激增需要對服務進行擴展,包括自動化擴容,峯值過後的自動縮容

  • 機器下線

    對於過時應用,進行應用下線,雲平臺收回容器宿主資源

  • 機器置換

    對於故障機器,可供置換容器宿主資源,服務自動啓動,無縫切換

網絡管理

有了計算資源後,另外最重要的就是網絡資源了。在現有的雲化背景下,我們幾乎不會直接接觸到物理的帶寬資源,而是直接的由雲平臺統一管理帶寬資源,我們需要的是對網絡資源的最大化應用和有效的管理。

  • 域名申請

    應用申請配套域名資源的申請,多套域名映射規則的規範

  • 域名變更

    域名變更統一平臺管理

  • 負載管理

    多機應用的訪問策略設定

  • 安全外聯

    基礎訪問鑑權,攔截非法請求

  • 統一接入

    提供統一接入的權限申請平臺,提供統一的登錄管理

故障快照

在系統故障的時候我們第一要務是系統恢復,同時保留案發現場也是非常重要的,資源調度平臺則需要有統一的機制保存好故障現場。

  • 現場保留

    內存分佈,線程數等資源現象的保存,如JavaDump鉤子接入

  • 調試接入

    採用字節碼技術無需入侵業務代碼,可以供生產環境現場日誌打點調試

7.2流量調度

在我們建設好分佈式系統後,最先受到考驗的關口就是網關了,進而我們需要關注好系統流量的情況,也就是如何對流量的管理,我們追求的是在系統可容納的流量上限內,把資源留給最優質的流量使用,而把非法惡意的流量擋在門外,這樣節省成本的同時確保系統不會被衝擊崩潰。

負載均衡

負載均衡是我們對服務如何消化流量的通用設計,通常分爲物理層的底層協議分流的硬負載均衡和軟件層的軟負載。負載均衡解決方案已經是業界成熟的方案,我們通常會針對特定業務在不同環境進行優化,常用有如下的負載均衡解決方案

  • 交換機

  • F5

  • LVS/ALI-LVS

  • Nginx/Tengine

  • VIPServer/ConfigServer

網關設計

負載均衡首當其衝的就是網關,因爲中心化集羣流量最先打到的地方就是網關了,如果網關扛不住壓力的話,那麼整個系統將不可用。

  • 高性能

    網關設計第一需要考慮的是高性能的流量轉發,網關單節點通常能達到上百萬的併發流量

  • 分佈式

    出於流量壓力分擔和災備考慮,網關設計同樣需要分佈式

  • 業務篩選

    網關同設計簡單的規則,排除掉大部分的惡意流量

流量管理

  • 請求校驗

    請求鑑權可以把多少非法請求攔截,清洗

  • 數據緩存

    多數無狀態的請求存在數據熱點,所以採用CDN可以把相當大一部分的流量消費掉

流控控制

剩下的真實流量我們採用不同的算法來分流請求

  • 流量分配

    • 計數器

    • 隊列

    • 漏斗

    • 令牌桶

    • 動態流控

  • 流量限制

    在流量激增的時候,通常我們需要有限流措施來防止系統出現雪崩,那麼就需要預估系統的流量上限,然後設定好上限數,但流量增加到一定閾值後,多出來的流量則不會進入系統,通過犧牲部分流量來保全系統的可用性。

    • QPS粒度

    • 線程數粒度

    • RT閾值

    • 限流策略

    • 限流工具 - Sentinel

7.3服務調度

所謂打鐵還需自身硬,流量做好了調度管理後,剩下的就是服務自身的健壯性了。分佈式系統服務出現故障是常有的事情,甚至我們需要把故障本身當做是分佈式服務的一部分。

註冊中心

我們網絡管理一節中介紹了網關,網關是流量的集散地,而註冊中心則是服務的根據地。

  • 狀態類型

    第一好應用服務的狀態,通過註冊中心就可以檢測服務是否可用

  • 生命週期

    應用服務不同的狀態組成了應用的生命週期

版本管理

  • 集羣版本

    集羣不用應用有自身對應的版本號,由不同服務組成的集羣也需要定義大的版本號

  • 版本回滾

    在部署異常的時候可以根據大的集羣版本進行回滾管理

服務編排

服務編排的定義是:通過消息的交互序列來控制各個部分資源的交互。參與交互的資源都是對等的,沒有集中的控制。微服務環境下服務衆多我們需要有一個總的協調器來協議服務之間的依賴,調用關係,K8S則是我們的不二選擇。

  • K8S

  • Spring Cloud

    • HSF

    • ZK+Dubble

服務控制

前面我們解決了網絡的健壯性和效率問題,這節介紹的是如何使我們的服務更加健壯。

  • 發現

    資源管理那節我們介紹了從雲平臺申請了容器宿主資源後,通過自動化腳本就可以啓動應用服務,啓動後服務則需要發現註冊中心,並且把自身的服務信息註冊到服務網關,也即是網關接入。註冊中心則會監控服務的不同狀態,做健康檢查,把不可用的服務歸類標記。

    • 網關接入

    • 健康檢查

  • 降級

    當用戶激增的時候,我們首先是在流量端做手腳,也就是限流。當我們發現限流後系統響應變慢了,有可能導致更多的問題時,我們也需要對服務本身做一些操作。服務降級就是把當前不是很核心的功能關閉掉,或者不是很要緊的準確性放寬範圍,事後再做一些人工補救。

    • 降低一致性約束

    • 關閉非核心服務

    • 簡化功能

  • 熔斷

    當我們都做了以上的操作後,還是覺得不放心,那麼就需要再進一步操心。熔斷是對過載的一種自身保護,猶如我們開關跳閘一樣。比如當我們服務不斷對數據庫進行查詢的時候,如果業務問題造成查詢問題,這是數據庫本身需要熔斷來保證不會被應用拖垮,並且訪問友好的信息,告訴服務不要再盲目調用了。

    • 閉合狀態

    • 半開狀態

    • 斷開狀態

    • 熔斷工具- Hystrix

  • 冪等

    我們知道,一個冪等操作的特點是其任意多次執行所產生的影響均與一次執行的影響相同。那麼久需要對單次操作賦予一個全局的id來做標識,這樣多次請求後我們可以判斷來源於同個客戶端,避免出現髒數據。

    • 全局一致性ID

    • Snowflake

7.4數據調度

數據存儲最大的挑戰就是數據冗餘的管理,冗餘多了效率變低而且佔用資源,副本少了起不到災備的作用,我們通常的做法是把有轉態的請求,通過轉態分離,轉化爲無狀態請求。

狀態轉移

分離狀態至全局存儲,請求轉換爲無狀態流量,比如我們通常會將登陸信息緩存至全局redis中間件,而不需要在多個應用中去冗餘用戶的登陸數據。

分庫分表

數據橫向擴展

分片分區

多副本冗餘

7.5自動化運維

我們從資源申請管理的時候就介紹到devops的趨勢,真正做到開發運維一體化則需要不同的中間件來配合完成。

配置中心

全局配置中心按環境來區分,統一管理,減少了多處配置的混亂局面

  • switch

  • diamend

部署策略

微服務分佈式部署是家常便飯,如何讓我們的服務更好的支撐業務發展,穩健的部署策略是我們首先需要考慮的,如下的部署策略適合不同業務和不同的階段。

  • 停機部署

  • 滾動部署

  • 藍綠部署

  • 灰度部署

  • A/B測試

作業調度

任務調度是系統必不可少的一個環節,傳統的方式是在Linux機器上配置crond定時任務或者直接在業務代碼裏面完成調度業務,現在則是成熟的中間件來代替。

  • SchedulerX

  • Spring定時任務

應用管理

運維工作中很大一部分時間需要對應用進行重啓,上下線操作,還有日誌清理。

  • 應用重啓

  • 應用下線

  • 日誌清理

7.6容錯處理

既然我們知道分佈式系統故障時家常便飯的事情,那麼應對故障的方案也是不可或缺的環節。通常我們有主動和被動的方式來處理,主動是在錯誤出現的時候,我們試圖再試試幾次,說不定就成功了,成功的話就可以避免了該次錯誤。被動方式是錯誤的事情已經發生了,爲了挽回,我們只是做時候處理,把負面影響降到最小。

重試設計

重試設計的關鍵在於設計好重試的時間和次數,如果超過重試次數,或是一段時間,那麼重試就沒有意義了。開源的項目 spring-retry可以很好的實現我們重試的計劃。

事務補償

事務補償符合我們最終一致性的理念。補償事務不一定會將系統中的數據返回到原始操作開始時其所處的狀態。 相反,它補償操作失敗前由已成功完成的步驟所執行的工作。補償事務中步驟的順序不一定與原始操作中步驟的順序完全相反。 例如,一個數據存儲可能比另一個數據存儲對不一致性更加敏感,因而補償事務中撤銷對此存儲的更改的步驟應該會首先發生。對完成操作所需的每個資源採用短期的基於超時的鎖並預先獲取這些資源,這樣有助於增加總體活動成功的可能性。 僅在獲取所有資源後才應執行工作。 鎖過期之前必須完成所有操作。

7.7全棧監控

由於分佈式系統是由衆多機器共同協作的系統,而且網絡也無法保證完全可用,所以我們需要建設一套對各個環節都能監控的系統,這樣我們才能從底層到業務各個層面進行監控,出現意外的時候可以及時修復故障,避免更多的問題出現。

基礎層

基礎層面是對容器資源的監測,包含各個硬件指標的負載情況

  • CPU,IO,內存,線程,吞吐

中間件

分佈式系統接入了大量的中間件平臺,中間件本身的健康情況也需要監控

應用層

  • 性能監控

    應用層面的需要對每個應用服務的實時指標(qps,rt),上下游依賴等進行監控

  • 業務監控

    除了應用本身的監控程度,業務監控也是保證系統正常的一個環節,通過設計合理的業務規則,對異常的情況做報警設置

監控鏈路

  • zipkin/eagleeye

  • sls

  • goc

  • Alimonitor

7.8故障恢復

當故障已經發生後,我們第一要做的是馬上消除故障,確保系統服務正常可用,這個時候通常的做回滾操作。

應用回滾

應用回滾之前需要保存好故障現場,以便排查原因。

基線回退

應用服務回滾後,代碼基線也需要revert到前一版本。

版本回滾

整體回滾需要服務編排,通過大版本號對集羣進行回滾。

7.9性能調優

性能優化是分佈式系統的大專題,涉及的面非常廣,這塊簡直可以單獨拿出來做一個系列來講,本節就先不展開。本身我們做服務治理的過程也是在性能的優化過程。

分佈式鎖

緩存是解決性能問題的一大利器,理想情況下,每個請求不需要額外計算立刻能獲取到結果返回時最快的。小到CPU的三級緩存,大到分佈式緩存,緩存無處不在,分佈式緩存需要解決的就是數據的一致性,這個時候我們引入了分佈式鎖的概念,如何處理分佈式鎖的問題將決定我們獲取緩存數據的效率。

高併發

多線程編程模式提升了系統的吞吐量,但也同時帶來了業務的複雜度。

異步

事件驅動的異步編程是一種新的編程模式,摒棄了多線程的複雜業務處理問題,同時能夠提升系統的響應效率。

8.總結

最後總結一下,如果有可能的話,請嘗試使用單節點方式而不是分佈式系統。分佈式系統伴隨着一些失敗的操作,爲了處理災難性故障,我們使用備份。爲了提高可靠性,我們引入了冗餘。分佈式系統本質就是一堆機器的協同。而我們要做的就是搞出各種手段來然機器的運行達到預期。這麼複雜的系統,需要了解各個環節,各個中間件的接入,是一個非常大的工程。慶幸的是,在微服務背景下,多數基礎性的工作已經有人幫我們實現了。前文所描述的分佈式架構,在工程實現了是需要用到分佈式三件套(Docker+K8S+Srping Cloud)基本就可以構建出來了。

分佈式架構核心技術分佈圖如下:

分佈式技術棧使用中間件:

最後用一張圖來概括分佈式系統的知識體系。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章