8000字一把梭|MongoDB 3種高可用架構全面剖析


大綱


  • MongoDB 背景

  • 高可用架構

    • Master-Slave 模式

    • Replica Set 副本集模式

    • Sharding 模式

  • 推薦使用姿勢

    • 使用姿勢一:怎麼保證高可用?

    • 使用姿勢二:怎麼保證數據的高可靠?

    • 使用姿勢三:怎麼保證數據的強一致性?

  • 總結

  • 後記


MongoDB 背景


MongoDB 是一款功能完善的分佈式文檔數據庫,是一款非常出名的 NoSQL 數據庫。當前國內使用 Mongodb 的大型實踐越來越多,MongoDB 爲我司提供了重要的數據庫存儲服務,支撐着每天近千萬級 QPS 峯值讀寫,數萬億級數據量存儲服務。

MongoDB 在高性能、動態擴縮容、高可用、易部署、易使用、海量數據存儲等方面擁有很大優勢。近些年,MongoDB 在 DB-Engines 流行度排行榜穩居榜單 Top5 ,且歷年得分是持續增長的,具體如下圖所示:

DB-Engines 是一個對數據庫管理系統受歡迎程度進行排名的網站。


排名分數:


MongoDB 是 Top5 內的唯一的非關係型數據庫。我們今天從比較高的層面來觀摩學習下 MongoDB 的幾種高可用架構。通過觀察這幾種架構我們甚至能體會到通用的分佈式架構的一個演進方向。


高可用架構


高可用性 HA(High Availability)指的是縮短因正常運維或者非預期故障而導致的停機時間,提高系統可用性。

那麼問題來了,都說自己的服務高可用,高可用能量化衡量嗎?能不能比出個高低呢?

可以,這裏引出一個 SLA 的概念。SLA 是 Service Level Agreement 的縮寫,中文含義:服務等級協議。SLA 就是用來量化可用性的協議,在雙方認可的前提條件下,服務提供商與用戶間定義的一種雙方認可的協定。SLA 是判定服務質量的重要指標。

問題來了,SLA 是怎麼量化的?其實就是按照停服時間算的。怎麼算的?舉個例子:

1 年 = 365 天 = 8760 小時 
99.9 停服時間:8760 * 0.1% = 8760 * 0.001 = 8.76小時 
99.99 停服時間:8760 * 0.0001 = 0.876 小時 = 52.6 分鐘 
99.999 停服時間:8760 * 0.00001 = 0.0876 小時 = 5.26分鐘

也就是說,如果一家公有云廠商提供對象存儲的服務,SLA 協議指明提供 5 個 9 的高可用服務,那就要保證一年的時間內對象存儲的停服時間少於 5.26 分鐘,如果超過這個時間,就算違背了 SLA 協議,可以找公有云提出賠償。

說回高可用的話題,大白話就是,無論出啥事都不能讓承載的業務受影響,這就是高可用。

前面我們說過,無論是數據的高可靠,還是組件的高可用全都是一個解決方案:冗餘。我們通過多個組件和備份導致對外提供一致性和不中斷的服務。冗餘是根本,但是怎麼來使用冗餘則各有不同

以下我們就按照不同的冗餘處理策略,可以總結出 MongoDB 幾個特定的模式,這個也是通用性質的架構,在其他的分佈式系統也是常見的。

我們從 Mongo 的三種高可用模式逐一介紹,這三種模式也代表了通用分佈式系統下高可用架構的進化史,分別是 Master-Slave,Replica Set,Sharding 模式。


Master-Slave 模式


Mongodb 提供的第一種冗餘策略就是 Master-Slave 策略,這個也是分佈式系統最開始的冗餘策略,這種是一種熱備策略。

Master-Slave 架構一般用於備份或者做讀寫分離,一般是一主一從設計和一主多從設計。

Master-Slave 由主從角色構成:

Master ( 主 )

可讀可寫,當數據有修改的時候,會將 Oplog 同步到所有連接的Salve 上去。

Slave ( 從 )

只讀,所有的 Slave 從 Master 同步數據,從節點與從節點之間不感知。

如圖:


通過上面的圖,這是一種典型的扇形結構。

Master-Slave 對讀寫分離的思考

Master 對外提供讀寫服務,有多個 Slave 節點的話,可以用 Slave 節點來提供讀服務的節點。

思考,這種讀寫分離有什麼問題?

有一個不可逾越的問題:數據不一致問題。根本原因在於只有 Master 節點可以寫,Slave 節點只能同步 Master 數據並對外提供讀服務,所以你會發現這個是一個異步的過程。

雖然最終數據會被 Slave 同步到,在數據完全一致之前,數據是不一致的,這個時候去 Slave 節點讀就會讀到舊的數據。所以,總結來說:讀寫分離的結構只適合特定場景,對於必須需要數據強一致的場景是不合適這種讀寫分離的

Master-Slave 對容災的思考

當 Master 節點出現故障的時候,由於 Slave 節點有備份數據,有數據就好辦呀。只要有數據還在,對用戶就有交代。這種 Master 故障的時候,可以通過人爲 Check 和操作,手動把 Slave 節點指定爲 Master 節點,這樣又能對外提供服務了。

思考下這種模式有什麼特點?

  1. Master-Slave 只區分兩種角色:Master 節點,Slave 節點;
  2. Master-Slave 的角色是靜態配置的,不能自動切換角色,必須人爲指定;
  3. 用戶只能寫 Master 節點,Slave 節點只能從 Master 拉數據;
  4. 還有一個關鍵點:Slave 節點只和 Master 通信,Slave 之間相互不感知,這種好處對於 Master 來說優點是非常輕量,缺點是:系統明顯存在單點,那麼多 Slave 只能從 Master 拉數據,而無法提供自己的判斷;

以上特點存在什麼問題?

最大的第一個問題就是可用性差。因爲很容易理解,因爲主節點掛掉的時候,必須要人爲操作處理,這裏就是一個巨大的停服窗口;

Master-Slave 的現狀

MongoDB 3.6 起已不推薦使用主從模式,自 MongoDB 3.2 起,分片羣集組件已棄用主從複製。因爲 Master-Slave 其中 Master 宕機後不能自動恢復,只能靠人爲操作,可靠性也差,操作不當就存在丟數據的風險。

怎麼搭建 Master-Slave 模式?

啓動 Master 節點:

mongod --master --dbpath /data/masterdb/

關鍵參數:

  • --master :指定爲 Master 角色;

啓動 Slave 節點:

mongod --slave --source <masterhostname><:<port>> --dbpath /data/slavedb/

關鍵參數:

  • --slave :指定爲 Slave 角色;
  • --source :指定數據的複製來源,也就是 Master 的地址;


Replica Set 副本集模式

Replica Set 模式角色

Replica Set 是 mongod 的實例集合,包含三類節點角色:

Primary( 主節點 )

只有 Primary 是可讀可寫的,Primary 接收所有的寫請求,然後把數據同步到所有 Secondary 。一個 Replica Set 只有一個 Primary 節點,當 Primary 掛掉後,其他 Secondary 或者 Arbiter 節點會重新選舉出來一個 Primary 節點,這樣就又可以提供服務了。

讀請求默認是發到 Primary 節點處理,如果需要故意轉發到 Secondary 需要客戶端修改一下配置(注意:是客戶端配置,決策權在客戶端)。

那有人又會想了,這裏也存在 Primary 和 Secondary 節點角色的分類,豈不是也存在單點問題?

這裏和 Master-Slave 模式的最大區別在於,Primary 角色是通過整個集羣共同選舉出來的,人人都可能成爲 Primary ,人人最開始只是  Secondary ,而這個選舉過程完全自動,不需要人爲參與。

Secondary( 副本節點 )

數據副本節點,當主節點掛掉的時候,參與選主。

思考一個問題:Secondary 和 Master-Slave 模式的 Slave 角色有什麼區別?

最根本的一個不同在於:Secondary 相互有心跳,Secondary 可以作爲數據源,Replica 可以是一種鏈式的複製模式。

Arbiter( 仲裁者 )

不存數據,不會被選爲主,只進行選主投票。使用 Arbiter 可以減輕在減少數據的冗餘備份,又能提供高可用的能力。

如下圖:


副本集模式特點思考

MongoDB 的 Replica Set 副本集模式主要有以下幾個特點:

  • 數據多副本,在故障的時候,可以使用完的副本恢復服務。注意: 這裏是故障自動恢復
  • 讀寫分離,讀的請求分流到副本上,減輕主(Primary)的讀壓力;
  • 節點直接互有心跳,可以感知集羣的整體狀態;

思考:這種有什麼優缺點呢?

可用性大大增強,因爲故障時自動恢復的,主節點故障,立馬就能選出一個新的 Primary 節點。但是有一個要注意的點:每兩個節點之間互有心跳,這種模式會導致節點的心跳幾何倍數增大,單個 Replica Set 集羣規模不能太大,一般來講最大不要超過 50 個節點。

思考:節點數有講究嗎?

有的,參與投票節點數要是奇數,這個非常重要。爲什麼,因爲偶數會導致腦裂,也就是投票數對等的情況,無法選出 Primary。

舉個例子,如果有 3 張票,那麼一定是 2:1 ,有一個人一定會是多數票,如果是 4 張票,那麼很有可能是 2:2 ,那麼就有平票的現象。


Sharding 模式


按道理 Replica Set 模式已經非常好的解決了可用性問題,爲什麼還會往後演進呢?因爲在當今大數據時代,有一個必須要考慮的問題:就是數據量

用戶的數據量是永遠都在增加的,理論是沒有上限的,但 Replica Set 卻是有上限的。怎麼說?

舉個例子,假設說你的單機有 10TiB 的空間,內存是 500 GiB,網卡是 40 G,這個就是單機的物理極限。當數據量超過 10 TiB,這個 Replica Set 就無法提供服務了。你可能會說,那就加磁盤嘍,把磁盤的容量加大嘍。是可以,但是單機的容量和性能一定是有物理極限的(比如說你的磁盤槽位可能最多就 60 盤)。單機存在瓶頸怎麼辦?

解決方案就是:利用分佈式技術

解決性能和容量瓶頸一般來說優化有兩個方向:

  1. 縱向優化
  2. 橫向優化

縱向優化是傳統企業最常見的思路,持續不斷的加大單個磁盤和機器的容量和性能。CPU 主頻不斷的提升,核數也不斷地加,磁盤容量從 128 GiB 變成當今普遍的 12 TiB,內存容量從以前的 M 級別變成現在上百 G 。帶寬從以前百兆網卡變成現在的普遍的萬兆網卡,但這些提升終究追不上用互聯網數據規模的增加量級。

橫向優化通俗來講就是加節點,橫向擴容來解決問題。業務上要劃分系統數據集,並在多臺服務器上處理,做到容量和能力跟機器數量成正比。單臺計算機的整體速度或容量可能不高,但是每臺計算機只能處理全部工作量的一部分,因此與單臺高速大容量服務器相比,可能提供更高的效率。

擴展的容量僅需要根據需要添加其他服務器,這比一臺高端硬件的機器成本還低,代價就是軟件的基礎結構要支持,部署維護要複雜。

那麼,實際情況下,哪一種更具可行性呢?

自然是分佈式技術的方案,縱向優化的方案非常容易到達物理極限,橫向優化則對個體要求不高,而是羣體發揮效果(但是對軟件架構提出更高的要求)。

2003年,Google 發佈 Google File System 論文,這是一個可擴展的分佈式文件系統,用於大型的、分佈式的、對大量數據進行訪問的應用。它運行於廉價的普通硬件上,提供分佈式容錯功能。GFS 正式拉開分佈式技術應用的大門。

MongoDB 的 Sharding 模式就是 MongoDB 橫向擴容的一個架構實現。我們下面就看一下 Sharding 模式和之前 Replica Set 模式有什麼特殊之處吧。

Sharding 模式角色

Sharding 模式下按照層次劃分可以分爲 3 個大模塊:

  1. 代理層:mongos
  2. 配置中心:副本集羣(mongod)
  3. 數據層:Shard 集羣

簡要如下圖:


代理層

代理層的組件也就是 mongos ,這是個無狀態的組件,純粹是路由功能。向上對接 Client ,收到 Client 寫請求的時候,按照特定算法均衡散列到某一個 Shard 集羣,然後數據就寫到 Shard 集羣了。收到讀請求的時候,定位找到這個要讀的對象在哪個 Shard 上,就把請求轉發到這個 Shard 上,就能讀到數據了。

數據層

數據層是啥?就是存儲數據的地方。你會驚奇的發現,其實數據層就是由一個個 Replica Set 集羣組成。在前面我們說過,單個 Replica Set 是有極限的,怎麼辦?那就搞多個 Replica Set ,這樣的一個 Replica Set 我們就叫做 Shard 。理論上,Replica Set 的集羣的個數是可以無限增長的。

配置中心

代理層是無狀態的模塊,數據層的每一個 Shard 是各自獨立的,那總要有一個集羣統配管理的地方,這個地方就是配置中心。裏面記錄的是什麼呢?

比如:有多少個 Shard,每個 Shard 集羣又是由哪些節點組成的。每個 Shard 裏大概存儲了多少數據量(以便做均衡)。這些東西就是在配置中心的。

配置中心存儲的就是集羣拓撲,管理的配置信息。這些信息也非常重要,所以也不能單點存儲,怎麼辦?配置中心也是一個 Replica Set 集羣,數據也是多副本的

詳細架構圖:


Sharding 模式怎麼存儲數據?

我們說過,縱向優化是對硬件使用者最友好的,橫向優化則對硬件使用者提出了更高的要求,也就是說軟件架構要適配

單 Shard 集羣是有限的,但 Shard 數量是無限的,Mongo 理論上能夠提供近乎無限的空間,能夠不斷的橫向擴容。那麼現在唯一要解決的就是怎麼去把用戶數據存到這些 Shard 裏?MongDB 是怎麼做的?

首先,要選一個字段(或者多個字段組合也可以)用來做 Key,這個 Key 可以是你任意指定的一個字段。我們現在就是要使用這個 Key 來,通過某種策略算出發往哪個 Shard 上。這個策略叫做:Sharding Strategy ,也就是分片策略。

我們把 Sharding Key 作爲輸入,按照特點的 Sharding Strategy 計算出一個值,值的集合形成了一個值域,我們按照固定步長去切分這個值域,每一個片叫做 Chunk每個 Chunk 出生的時候就和某個 Shard 綁定起來,這個綁定關係存儲在配置中心裏。

所以,我們看到 MongoDB 的用 Chunk 再做了一層抽象層,隔離了用戶數據和 Shard 的位置,用戶數據先按照分片策略算出落在哪個 Chunk 上,由於 Chunk 某一時刻只屬於某一個 Shard,所以自然就知道用戶數據存到哪個 Shard 了。

Sharding 模式下數據寫入過程:

Sharding 模式下數據讀取過程:

通過上圖我們也看出來了,mongos 作爲路由模塊其實就是尋路的組件,寫的時候先算出用戶 key 屬於哪個 Chunk,然後找出這個 Chunk 屬於哪個 Shard,最後把請求發給這個 Shard ,就能把數據寫下去。讀的時候也是類似,先算出用戶 key 屬於哪個 Chunk,然後找出這個 Chunk 屬於哪個 Shard,最後把請求發給這個 Shard ,就能把數據讀上來。

實際情況下,mongos 不需要每次都和 Config Server 交互,大部分情況下只需要把 Chunk 的映射表 cache 一份在 mongos 的內存,就能減少一次網絡交互,提高性能。

爲什麼要多一層 Chunk 這個抽象?

爲了靈活,因爲一旦是用戶數據直接映射到 Shard 上,那就相當於是用戶數據和底下的物理位置綁定起來了,這個萬一 Shard 空間已經滿了,怎麼辦?

存儲不了呀,又不能存儲到其他地方去。有同學就會想了,那我可以把這個變化的映射記錄下來呀,記錄下來理論上行得通,但是每一個用戶數據記錄一條到 Shard 的映射,這個量級是非常大的,實際中沒有可行性。

而現在多了一層 Chunk 空間,就靈活了。用戶數據不再和物理位置綁定,而是隻映射到 Chunk 上就可以了。如果某個 Shard 數據不均衡,那麼可以把 Chunk 空間分裂開,遷走一半的數據到其他 Shard ,修改下 Chunk 到 Shard 的映射,Chunk 到 Shard 的映射條目很少,完全 Hold 住,並且這種均衡過程用戶完全不感知。

講回 Sharding Strategy 是什麼?本質上 Sharding Strategy 是形成值域的策略而已,MongoDB 支持兩種 Sharding Strategy:

  1. Hashed Sharding 的方式
  2. Range Sharding 的方式

Hashed Sharding

把 Key 作爲輸入,輸入到一個 Hash 函數中,計算出一個整數值,值的集合形成了一個值域,我們按照固定步長去切分這個值域,每一個片叫做 Chunk ,這裏的 Chunk 則就是整數的一段範圍而已



這種計算值域的方式有什麼優缺點呢?

好處是:

  • 計算速度快
  • 均衡性好,純隨機

壞處是:

  • 正因爲純隨機,排序 列舉的性能極差,比如你如果按照 name 這個字段去列舉數據,你會發現幾乎所有的 Shard 都要參與進來;

Range Sharding

Range 的方式本質上是直接用 Key 本身來做值,形成的 Key Space 。



如上圖例子,Sharding Key 選爲 name 這個字段,對於 "test_0","test_1","test_2" 這樣的 key 排序就是挨着的,所以就全都分配在一個 Chunk 裏。

這 3 條 Docuement 大概率是在一個 Chunk 上,因爲我們就是按照 Name 來排序的。這種方式有什麼優缺點?

好處是:

  • 對排序 列舉場景非常友好,因爲數據本來就是按照順序依次放在 Shard 上的,排序列舉的時候,順序讀即可,非常快速;

壞處是:

  • 容易導致熱點,舉個例子,如果 Sharding Key 都有相同前綴,那麼大概率會分配到同一個 Shard 上,就盯着這個 Shard 寫,其他 Shard 空閒的很,卻幫不上忙;

可用性的進一步提升

爲什麼說 Sharding 模式不僅是容量問題得到解決,可用性也進一步提升?

因爲 Shard(Replica Set)集羣個數多了,即使一個或多個 Shard 不可用,Mongo 集羣對外仍可以 提供讀取和寫入服務。因爲每一個 Shard 都有一個 Primary 節點,都可以提供寫服務,可用性進一步提升。


推薦使用姿勢


上面已經介紹了歷史演進的 3 種高可用模式,Master-Slave 模式已經在不推薦了,Relicate Set 和 Sharding 模式都可以保證數據的高可靠和高可用,但是在我們實踐過程中,發現客戶端存在非常大的配置權限,也就是說如果用戶在使用 MongoDB 的時候使用姿勢不對,可能會導致達不到你的預期。


使用姿勢一:怎麼保證高可用?


如果是 Replicate Set 模式,那麼客戶端要主動感知主從切換。以前用過 Go 語言某個版本的 MongoDB client SDK,發現在主從切換的時候,並沒有主動感知,導致請求還一直髮到已經故障的節點,從而導致服務不可用。

所以針對這種形式要怎麼做?有兩個方案:

  1. 用 Sharding 模式,因爲 Sharding 模式下,用戶打交道的是 mongos ,這個是一個代理,幫你屏蔽了底層 Replica Set 的細節,主從切換由它幫你做好;
  2. 客戶端自己感知,定期刷新(這種就相對麻煩);

使用姿勢二:怎麼保證數據的高可靠?


客戶端配置寫多數成功纔算成功。沒錯,這個權限交由由客戶端配置。如果沒有配置寫多數成功,那麼很可能寫一份數據成功就成功了,這個時候如果發生故障,或者切主,那麼數據可能丟失或者被主節點 rollback ,也等同用戶數據丟失。

mongodb 有完善的 rollback 及寫入策略(WriteConcern)機制,但是也要使用得當。怎麼保證高可靠?一定要寫多數成功纔算成功。


使用姿勢三:怎麼保證數據的強一致性?


客戶端要配置兩個東西:

  1. 寫多數成功,纔算成功;
  2. 讀使用 strong 模式,也就是隻從主節點讀;

只有這兩個配置一起上,才能保證用戶數據的絕對安全,並且對外提供數據的強一致性。


總結


  1. 本文介紹了 3 種 MongoDB 的高可用架構,Master-Slave 模式,Replica Set 模式,Sharding 模式,這也是常見的架構演進的過程;
  2. MongdbDB Master-Slave 已經不推薦,甚至新版已經不支持這種冗餘模式;
  3. Replica Set 通過數據多副本,組件冗餘提高了可靠性,並且通過分佈式自動選主算法,減少了停服時間窗,提高了可用性;
  4. Sharding 模式通過橫向擴容的方式,爲用戶提供了近乎無限的空間;
  5. MongoDB 客戶端掌握了很大的配置權限,通過指定寫多數策略和 strong 模式(只從主節點讀數據)能保證數據的高可靠和強一致性;

後記


今天從比較大的層面來分析了下 MongoDB 的高可用架構,這 3 種架構也是分佈式系統裏常見的架構模式,非常實用,你學 fei 了嗎?MongoDB 作爲當前火熱的 NoSQL 數據庫,是有很多值得學習的地方的,有機會從原理和實踐的角度深入分析下。



堅持思考,方向比努力更重要。關注我:奇伢雲存儲

本文分享自微信公衆號 - 程序員內點事(chengxy-nds)。
如有侵權,請聯繫 [email protected] 刪除。
本文參與“OSC源創計劃”,歡迎正在閱讀的你也加入,一起分享。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章