帖子中心,數據庫架構優化與實踐

本文將以“帖子中心”爲例,介紹“1對多”類業務,隨着數據量的逐步增大,數據庫性能顯著降低,數據庫水平切分相關的架構實踐:

  • 如何來實施水平切分

  • 水平切分後常見的問題

  • 典型問題的優化思路及實踐

 

一、什麼是1對多關係

所謂的“1對1”,“1對多”,“多對多”,來自數據庫設計中的“實體-關係”ER模型,用來描述實體之間的映射關係。

 

1對1

  • 一個用戶只有一個登錄名,一個登錄名只對應一個用戶

  • 一個uid對應一個login_name,一個login_name只對應一個uid

這是一個1對1的關係。

 

1對多

  • 一個用戶可以發多條微博,一條微博只有一個發送者

  • 一個uid對應多個msg_id,一個msg_id只對應一個uid

這是一個1對多的關係。

 

多對多

  • 一個用戶可以關注多個用戶

  • 一個用戶也可以被多個粉絲關注

這是一個多對多的關係。

 

二、帖子中心業務分析

帖子中心是一個典型的1對多業務。

 

一個用戶可以發佈多個帖子,一個帖子只對應一個發佈者。

 

任何脫離業務的架構設計都是耍流氓,先來看看帖子中心對應的業務需求。

 

帖子中心,是一個提供帖子發佈/修改/刪除/查看/搜索的服務。

 

寫操作:

  • 發佈(insert)帖子

  • 修改(update)帖子

  • 刪除(delete)帖子

 

讀操作:

  • 通過tid查詢(select)帖子實體,單行查詢

  • 通過uid查詢(select)用戶發佈過的帖子,列表查詢

  • 帖子檢索(search),例如通過時間、標題、內容搜索符合條件的帖子

 

在數據量較大,併發量較大的時候,通常通過元數據與索引數據分離的架構來滿足不同類型的需求:

架構中的幾個關鍵點:

  • tiezi-center:帖子服務

  • tiezi-db:提供元數據存儲

  • tiezi-search:帖子搜索服務

  • tiezi-index:提供索引數據存儲

  • MQ:tiezi-center與tiezi-search通訊媒介,一般不直接使用RPC調用,而是通過MQ對兩個子系統解耦(爲何這麼解耦,請參見《到底什麼時候該使用MQ?》)

 

其中,tiezi-center和tiezi-search分別滿足兩類不同的讀需求

如上圖所示:

  • tid和uid上的查詢需求,可以由tiezi-center從元數據讀取並返回

  • 其他類檢索需求,可以由tiezi-search從索引數據檢索並返回

 

對於寫需求

如上圖所示:

  • 增加,修改,刪除的操作都會從tiezi-center發起

  • tiezi-center修改元數據

  • tiezi-center將信息修改通知發送給MQ

  • tiezi-search從MQ接受修改信息

  • tiezi-search修改索引數據

 

tiezi-search,搜索架構不是本文的重點(外置索引架構設計,請參見《100億數據1萬屬性數據架構設計》),後文將重點描述帖子中心元數據這一塊的水平切分設計。

 

三、帖子中心元數據設計

通過帖子中心業務分析,很容易瞭解到,其核心元數據爲:

Tiezi(tid, uid, time, title, content, …);

其中:

  • tid爲帖子ID,主鍵

  • uid爲用戶ID,發帖人

  • time, title, content …等爲帖子屬性

 

數據庫設計上,在業務初期,單庫就能滿足元數據存儲要求,其典型的架構設計爲:

  • tiezi-center:帖子中心服務,對調用者提供友好的RPC接口

  • tiezi-db:對帖子數據進行存儲

 

在相關字段上建立索引,就能滿足相關業務需求:

  • 帖子記錄查詢,通過tid查詢,約佔讀請求量90%

select * from t_tiezi where tid=$tid

  • 帖子列表查詢,通過uid查詢其發佈的所有帖子,約佔讀請求量10%

select * from t_tiezi where uid=$uid

 

四、帖子中心水平切分-tid切分法

當數據量越來越大時,需要對帖子數據的存儲進行線性擴展。

 

既然是帖子中心,並且帖子記錄查詢量佔了總請求的90%,很容易想到通過tid字段取模來進行水平切分:

這個方法簡單直接,優點

  • 100%寫請求可以直接定位到庫

  • 90%的讀請求可以直接定位到庫

 

缺點

  • 一個用戶發佈的所有帖子可能會落到不同的庫上,10%的請求通過uid來查詢會比較麻煩

如上圖,一個uid訪問需要遍歷所有庫。

 

五、帖子中心水平切分-uid切分法

有沒有一種切分方法,確保同一個用戶發佈的所有帖子都落在同一個庫上,而在查詢一個用戶發佈的所有帖子時,不需要去遍歷所有的庫呢?

:使用uid來分庫可以解決這個問題。

 

新出現的問題:如果使用uid來分庫,確保了一個用戶的帖子數據落在同一個庫上,那通過tid來查詢,就不知道這個帖子落在哪個庫上了,豈不是還需要遍歷全庫,需要怎麼優化呢?

tid的查詢是單行記錄查詢,只要在數據庫(或者緩存)記錄tid到uid的映射關係,就能解決這個問題。

 

新增一個索引庫:

t_mapping(tid, uid);

  • 這個庫只有兩列,可以承載很多數據

  • 即使數據量過大,索引庫可以利用tid水平切分

  • 這類kv形式的索引結構,可以很好的利用cache優化查詢性能

  • 一旦帖子發佈,tid和uid的映射關係就不會發生變化,cache的命中率會非常高

 

使用uid分庫,並增加索引庫記錄tid到uid的映射關係之後,每當有uid上的查詢:

可以通過uid直接定位到庫。

 

每當有tid上的查詢:

  • 先查詢索引表,通過tid查詢到對應的uid

  • 再通過uid定位到庫

 

這個方法的優點

  • 一個用戶發佈的所以帖子落在同一個庫上

  • 10%的請求過過uid來查詢列表,可以直接定位到庫

  • 索引表cache命中率非常高,因爲tid與uid的映射關係不會變

 

缺點

  • 90%的tid請求,以及100%的修改請求,不能直接定位到庫,需要先進行一次索引表的查詢,當然這個查詢非常塊,通常在5ms內可以返回

  • 數據插入時需要操作元數據與索引表,可能引發潛在的一致性問題

 

六、帖子中心水平切分-基因法

有沒有一種方法,既能夠通過uid定位到庫,又不需要建立索引表來進行二次查詢呢,這就是本文要敘述的“1對多”業務分庫最佳實踐,基因法

 

什麼是分庫基因?

通過uid分庫,假設分爲16個庫,採用uid%16的方式來進行數據庫路由,這裏的uid%16,其本質是uid的最後4個bit決定這行數據落在哪個庫上,這4個bit,就是分庫基因

 

什麼是基因法分庫?

在“1對多”的業務場景,使用“1”分庫,在“多”的數據id生成時,id末端加入分庫基因,就能同時滿足“1”和“多”的分庫查詢需求。

如上圖所示,uid=666的用戶發佈了一條帖子(666的二進制表示爲:1010011010):

  • 使用uid%16分庫,決定這行數據要插入到哪個庫中

  • 分庫基因是uid的最後4個bit,即1010

  • 在生成tid時,先使用一種分佈式ID生成算法生成前60bit(上圖中綠色部分)

  • 將分庫基因加入到tid的最後4個bit(上圖中粉色部分)

  • 拼裝成最終的64bit帖子tid(上圖中藍色部分)

(怎麼生成60bit分佈式唯一ID,請參見《分佈式ID生成算法》)

 

這般,保證了同一個用戶發佈的所有帖子的tid,都落在同一個庫上,tid的最後4個bit都相同,於是:

  • 通過uid%16能夠定位到庫

  • 通過tid%16也能定位到庫

 

潛在問題一:同一個uid發佈的tid落在同一個庫上,會不會出現數據不均衡?

:只要uid是均衡的,每個用戶發佈的平均帖子數是均衡的,每個庫的數據就是均衡的。

 

潛在問題二:最開始分16庫,分庫基因是4bit,未來要擴充成32庫,分庫基因變成了5bit,那怎麼辦?

:需要提前做好容量預估,例如事先規劃好5年內數據增長256庫足夠,就提前預留8bit基因。

 

七、總結

將以“帖子中心”爲典型的“1對多”類業務,在架構上,採用元數據與索引數據分離的架構設計方法:

  • 帖子服務,元數據滿足uid和tid的查詢需求

  • 搜索服務,索引數據滿足複雜搜索尋求

 

對於元數據的存儲,在數據量較大的情況下,有三種常見的切分方法:

  • tid切分法,按照tid分庫,同一個用戶發佈的帖子落在不同的庫上,通過uid來查詢要遍歷所有庫

  • uid切分法,按照uid分庫,同一個用戶發佈的帖子落在同一個庫上,需要通過索引表或者緩存來記錄tid與uid的映射關係,通過tid來查詢時,先查到uid,再通過uid定位庫

  • 基因法,按照uid分庫,在生成tid里加入uid上的分庫基因,保證通過uid和tid都能直接定位到庫

 

對於1對多的業務場景,分庫架構不再是瓶頸。

 

 

轉自微信公衆號架構師之路

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章