系統架構改造實操:從不堪重負到10倍服務性能提升

一、背景

 

隨着用戶量級的快速增長,vivo 官方商城 v1.0 的單體架構逐漸暴露出弊端:模塊愈發臃腫、開發效率低下、性能出現瓶頸、系統維護困難。

 

從2017年開始啓動的 v2.0 架構升級,基於業務模塊進行垂直的系統物理拆分,拆分出來業務線各司其職,提供服務化的能力,共同支撐主站業務。

 

訂單模塊是電商系統的交易核心,不斷累積的數據即將達到單表存儲瓶頸,系統難以支撐新品發佈和大促活動期間的流量,服務化改造勢在必行。

 

本文將介紹 vivo 商城訂單系統建設的過程中遇到的問題和解決方案,分享架構設計經驗。

 

二、系統架構

 

將訂單模塊從商城拆分出來,獨立爲訂單系統,使用獨立的數據庫,爲商城相關係統提供訂單、支付、物流、售後等標準化服務。

 

系統架構如下圖所示:

 

 

 

三、技術挑戰

 

1、數據量和高併發問題  

 

首先面對的挑戰來自存儲系統:

 

1、數據量問題

 

隨着歷史訂單不斷累積,MySQL中訂單表數據量已達千萬級。

 

我們知道InnoDB存儲引擎的存儲結構是B+樹,查找時間複雜度是O(log n),因此當數據總量n變大時,檢索速度必然會變慢, 不論如何加索引或者優化都無法解決,只能想辦法減小單表數據量。

 

數據量大的解決方案有:數據歸檔、分表。

 

2、高併發問題

 

商城業務處於高速發展期,下單量屢創新高,業務複雜度也在提升,應用程序對MySQL的訪問量越來越高。

 

單機MySQL的處理能力是有限的,當壓力過大時,所有請求的訪問速度都會下降,甚至有可能使數據庫宕機。

 

併發量高的解決方案有:使用緩存、讀寫分離、分庫。

 

下面對這些方案進行簡單描述:

 

1)數據歸檔

 

訂單數據具備時間屬性,存在熱尾效應,大部分情況下檢索的都是最近的訂單,而訂單表裏卻存儲了大量使用頻率較低的老數據。

 

那麼就可以將新老數據分開存儲,將歷史訂單移入另一張表中,並對代碼中的查詢模塊做一些相應改動,便能有效解決數據量大的問題。

 

2)使用緩存

 

使用Redis作爲MySQL的前置緩存,可以擋住大部分的查詢請求,並降低響應時延。

 

緩存對商品系統這類與用戶關係不大的系統效果特別好,但對訂單系統而言,每個用戶的訂單數據都不一樣,緩存命中率不算高,效果不是太好。

 

 

 

3)讀寫分離

 

主庫負責執行數據更新請求,然後將數據變更實時同步到所有從庫,用多個從庫來分擔查詢請求。

 

但訂單數據的更新操作較多,下單高峯時主庫的壓力依然沒有得到解決。且存在主從同步延遲,正常情況下延遲非常小,不超過1ms,但也會導致在某一個時刻的主從數據不一致。

 

那就需要對所有受影響的業務場景進行兼容處理,可能會做一些妥協,比如下單成功後先跳轉到一個下單成功頁,用戶手動點擊查看訂單後才能看到這筆訂單。

 

 

 

4)分庫

 

分庫又包含垂直分庫和水平分庫:

  • 水平分庫:把同一個表的數據按一定規則拆到不同的數據庫中,每個庫可以放在不同的服務器上;

  • 垂直分庫:按照業務將表進行分類,分佈到不同的數據庫上面,每個庫可以放在不同的服務器上,它的核心理念是專庫專用。

 

5)分表

 

分表又包含垂直分表和水平分表:

  • 水平分表:在同一個數據庫內,把一個表的數據按一定規則拆到多個表中;

  • 垂直分表:將一個表按照字段分成多表,每個表存儲其中一部分字段。

 

我們綜合考慮了改造成本、效果和對現有業務的影響,決定直接使用最後一招:分庫分表。

 

2、分庫分表技術選型  

 

分庫分表的技術選型主要從這幾個方向考慮:

 

  • 客戶端sdk開源方案

  • 中間件proxy開源方案

  • 公司中間件團隊提供的自研框架

  • 自己動手造輪子

 

參考之前項目經驗,並與公司中間件團隊溝通後,採用了開源的 Sharding-JDBC 方案。現已更名爲Sharding-Sphere。

 

  • Github:https://github.com/sharding-sphere/

  • 文檔:官方文檔比較粗糙,但是網上資料、源碼解析、demo比較豐富

  • 社區:活躍

  • 特點:jar包方式提供,屬於client端分片,支持xa事務

 

 

 

1)分庫分表策略

 

結合業務特性,選取用戶標識作爲分片鍵,通過計算用戶標識的哈希值再取模來得到用戶訂單數據的庫表編號。

 

假設共有n個庫,每個庫有m張表,

 

則庫表編號的計算方式爲:

 

- 庫序號:Hash(userId) / m % n

- 表序號:Hash(userId) % m

 

路由過程如下圖所示:

 

 

 

2)分庫分表的侷限性和應對方案

 

分庫分表解決了數據量和併發問題,但它會極大限制數據庫的查詢能力,有一些之前很簡單的關聯查詢,在分庫分表之後可能就沒法實現了,那就需要單獨對這些Sharding-JDBC不支持的SQL進行改寫。

 

除此之外,還遇到了這些挑戰:

 

①全局唯一ID設計

 

分庫分表後,數據庫自增主鍵不再全局唯一,不能作爲訂單號來使用,但很多內部系統間的交互接口只有訂單號,沒有用戶標識這個分片鍵,如何用訂單號來找到對應的庫表呢?

 

原來,我們在生成訂單號時,就將庫表編號隱含在其中了。這樣就能在沒有用戶標識的場景下,從訂單號中獲取庫表編號。

 

②歷史訂單號沒有隱含庫表信息

 

用一張表單獨存儲歷史訂單號和用戶標識的映射關係,隨着時間推移,這些訂單逐漸不在系統間交互,就慢慢不再被用到。

 

③管理後臺需要根據各種篩選條件,分頁查詢所有滿足條件的訂單

 

將訂單數據冗餘存儲在搜索引擎Elasticsearch中,僅用於後臺查詢。

 

3、怎麼做 MySQL 到 ES 的數據同步  

 

上面說到爲了便於管理後臺的查詢,我們將訂單數據冗餘存儲在Elasticsearch中,那麼,如何在MySQL的訂單數據變更後,同步到ES中呢?

 

這裏要考慮的是數據同步的時效性和一致性、對業務代碼侵入小、不影響服務本身的性能等。

 

1)MQ方案

 

ES更新服務作爲消費者,接收訂單變更MQ消息後對ES進行更新

 

 

 

2)Binlog方案

 

ES更新服務藉助canal等開源項目,把自己僞裝成MySQL的從節點,接收Binlog並解析得到實時的數據變更信息,然後根據這個變更信息去更新ES。

 

 

 

其中BinLog方案比較通用,但實現起來也較爲複雜,我們最終選用的是MQ方案。

 

因爲ES數據只在管理後臺使用,對數據可靠性和同步實時性的要求不是特別高。

 

考慮到宕機和消息丟失等極端情況,在後臺增加了按某些條件手動同步ES數據的功能來進行補償。

 

4、如何安全地更換數據庫  

 

如何將數據從原來的單實例數據庫遷移到新的數據庫集羣,也是一大技術挑戰。

 

不但要確保數據的正確性,還要保證每執行一個步驟後,一旦出現問題,能快速地回滾到上一個步驟。

 

我們考慮了停機遷移和不停機遷移的兩種方案:

 

1)不停機遷移方案:

 

  • 把舊庫的數據複製到新庫中,上線一個同步程序,使用 Binlog等方案實時同步舊庫數據到新庫;

  • 上線雙寫訂單新舊庫服務,只讀寫舊庫;

  • 開啓雙寫,同時停止同步程序,開啓對比補償程序,確保新庫數據和舊庫一致;

  • 逐步將讀請求切到新庫上;

  • 讀寫都切換到新庫上,對比補償程序確保舊庫數據和新庫一致;

  • 下線舊庫,下線訂單雙寫功能,下線同步程序和對比補償程序。

 

 

 

2)停機遷移方案:

 

  • 上線新訂單系統,執行遷移程序將兩個月之前的訂單同步到新庫,並對數據進行稽覈;

  • 將商城V1應用停機,確保舊庫數據不再變化;

  • 執行遷移程序,將第一步未遷移的訂單同步到新庫並進行稽覈;

  • 上線商城V2應用,開始測試驗證,如果失敗則回退到商城V1應用(新訂單系統有雙寫舊庫的開關)。

 

 

 

考慮到不停機方案的改造成本較高,而夜間停機方案的業務損失並不大,最終選用的是停機遷移方案。

 

5、分佈式事務問題  

 

電商的交易流程中,分佈式事務是一個經典問題,比如:

 

  • 用戶支付成功後,需要通知發貨系統給用戶發貨;

  • 用戶確認收貨後,需要通知積分系統給用戶發放購物獎勵的積分。

 

我們是如何保證微服務架構下數據的一致性呢?

 

不同業務場景對數據一致性的要求不同,業界的主流方案中,用於解決強一致性的有兩階段提交(2PC)、三階段提交(3PC),解決最終一致性的有TCC、本地消息、事務消息和最大努力通知等。

 

這裏不對上述方案進行詳細的描述,介紹一下我們正在使用的本地消息表方案:在本地事務中將要執行的異步操作記錄在消息表中,如果執行失敗,可以通過定時任務來補償。

 

下圖以訂單完成後通知積分系統贈送積分爲例。

 

 

 

6、系統安全和穩定性  

 

1)網絡隔離

 

只有極少數第三方接口可通過外網訪問,且都會驗證簽名,內部系統交互使用內網域名和RPC接口。

 

2)併發鎖

 

任何訂單更新操作之前,會通過數據庫行級鎖加以限制,防止出現併發更新。

 

3)冪等性

 

所有接口均具備冪等性,不用擔心對方網絡超時重試所造成的影響。

 

4)熔斷

 

使用Hystrix組件,對外部系統的實時調用添加熔斷保護,防止某個系統故障的影響擴大到整個分佈式系統中。

 

5)監控和告警

 

通過配置日誌平臺的錯誤日誌報警、調用鏈的服務分析告警,再加上公司各中間件和基礎組件的監控告警功能,讓我們能夠能夠第一時間發現系統異常。

 

7、踩過的坑  

 

1)採用MQ消費的方式同步數據庫的訂單相關數據到ES中,遇到的寫入數據不是訂單最新數據問題。

 

下圖左邊是原方案:

 

在消費訂單數據同步的MQ時,如果線程A在先執行,查出數據,這時候訂單數據被更新了,線程B開始執行同步操作,查出訂單數據後先於線程A一步寫入ES中,線程A執行寫入時就會將線程B寫入的數據覆蓋,導致ES中的訂單數據不是最新的。

 

解決方案是在查詢訂單數據時加行鎖,整個業務執行在事務中,執行完成後再執行下一個線程。

 

 

 

2)sharding-jdbc 分組後排序分頁查詢出所有數據問題

 

示例:

 

 

select a  from  temp group by a,b order by a  desc limit 1,10。

 

執行是Sharding-jdbc裏group by 和 order by 字段和順序不一致是將10置爲Integer.MAX_VALUE, 導致分頁查詢失效。

 

io.shardingsphere.core.routing.router.sharding.ParsingSQLRouter#processLimit

 

private void processLimit(final List<Object> parameters, final SelectStatement selectStatement, final boolean isSingleRouting) {

     boolean isNeedFetchAll = (!selectStatement.getGroupByItems().isEmpty() || !selectStatement.getAggregationSelectItems().isEmpty()) && !selectStatement.isSameGroupByAndOrderByItems();

    selectStatement.getLimit().processParameters(parameters, isNeedFetchAll, databaseType, isSingleRouting);

}

 

io.shardingsphere.core.parsing.parser.context.limit.Limit#processParameters

 

/**

* Fill parameters for rewrite limit.

*

* @param parameters parameters

* @param isFetchAll is fetch all data or not

* @param databaseType database type

* @param isSingleRouting is single routing or not

*/

public void processParameters(final List<Object> parameters, final boolean isFetchAll, final DatabaseType databaseType, final boolean isSingleRouting) {

    fill(parameters);

    rewrite(parameters, isFetchAll, databaseType, isSingleRouting);

}

 

 

private void rewrite(final List<Object> parameters, final boolean isFetchAll, final DatabaseType databaseType, final boolean isSingleRouting) {

    int rewriteOffset = 0;

    int rewriteRowCount;

    if (isFetchAll) {

        rewriteRowCount = Integer.MAX_VALUE;

    } else if (isNeedRewriteRowCount(databaseType) && !isSingleRouting) {

         rewriteRowCount = null == rowCount ? -1 : getOffsetValue() + rowCount.getValue();

    } else {

       rewriteRowCount = rowCount.getValue();

    }

    if (null != offset && offset.getIndex() > -1 && !isSingleRouting) {

       parameters.set(offset.getIndex(), rewriteOffset);

     }

     if (null != rowCount && rowCount.getIndex() > -1) {

        parameters.set(rowCount.getIndex(), rewriteRowCount);

      }

}

 

正確的寫法應該是 

 

 

 select a  from  temp group by a desc ,b limit 1,10

 

使用的版本是sharing-jdbc的3.1.1。

 

ES分頁查詢如果排序字段存在重複的值,最好加一個唯一的字段作爲第二排序條件,避免分頁查詢時漏掉數據、查出重複數據,比如用的是訂單創建時間作爲唯一排序條件,同一時間如果存在很多數據,就會導致查詢的訂單存在遺漏或重複,需要增加一個唯一值作爲第二排序條件或者直接使用唯一值作爲排序條件。

 

四、成果

 

  • 一次性上線成功,穩定運行了一年多;

  • 核心服務性能提升十倍以上;

  • 系統解耦,迭代效率大幅提升;

  • 能夠支撐商城至少五年的高速發展。

 

五、結語

 

我們在系統設計時並沒有一味追求前沿技術和思想,面對問題時也不是直接採用主流電商的解決方案,而是根據業務實際狀況來選取最合適的辦法。

 

個人覺得,一個好的系統不是在一開始就被大牛設計出來的,一定是隨着業務的發展和演進逐漸被迭代出來的,持續預判業務發展方向,提前制定架構演進方案,簡單來說就是:走到業務的前面去!

 

作者丨官網商城開發團隊 來源丨vivo互聯網技術(ID:vivoVMIC) dbaplus社羣歡迎廣大技術人員投稿,投稿郵箱: [email protected]
 
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章