如何對分佈式鎖進行高併發優化?

原文鏈接:https://www.imooc.com/article/293531

背景引入

今天給大家聊一個有意思的話題:每秒上千訂單場景下,如何對分佈式鎖的併發能力進行優化?

首先來看看這個問題的背景!

前段時間有個朋友在外面面試,然後有一天找我聊說:有一個國內不錯的電商公司,面試官給他出了一個場景題:

假如下單時,用分佈式鎖來防止庫存超賣,但是是每秒上千訂單的高併發場景,如何對分佈式鎖進行高併發優化來應對這個場景?

他說他當時沒答上來,因爲沒做過沒什麼思路。其實我當時聽到這個面試題心裏也覺得有點意思,因爲如果是我來面試候選人的話,應該會給的範圍更大一些。

比如,我會讓面試的同學聊一聊電商高併發秒殺場景下的庫存超賣解決方案,各種方案的優缺點以及實踐,進而聊到分佈式鎖這個話題。

因爲庫存超賣問題是有很多種技術解決方案的,比如悲觀鎖,分佈式鎖,樂觀鎖,隊列串行化,Redis原子操作,等等吧。

但是既然那個面試官兄弟限定死了用分佈式鎖來解決庫存超賣,我估計就是想問一個點:在高併發場景下如何優化分佈式鎖的併發性能

我覺得,面試官提問的角度還是可以接受的,因爲在實際落地生產的時候,分佈式鎖這個東西保證了數據的準確性,但是他天然併發能力有點弱。

剛好我之前在自己項目的其他場景下,確實是做過高併發場景下的分佈式鎖優化方案。

因此正好是藉着這個朋友的面試題,把分佈式鎖的高併發優化思路,給大家來聊一聊。

庫存超賣現象是怎麼產生的?

先來看看如果不用分佈式鎖,所謂的電商庫存超賣是啥意思?大家看看下面的圖:

http://img4.mukewang.com/5da546ef00013ed906600394.jpg

 

這個圖,其實很清晰了,假設訂單系統部署兩臺機器上,不同的用戶都要同時買10臺iphone,分別發了一個請求給訂單系統。

接着每個訂單系統實例都去數據庫裏查了一下,當前iphone庫存是12臺。

倆大兄弟一看,樂了,12臺庫存大於了要買的10臺數量啊!

於是乎,每個訂單系統實例都發送SQL到數據庫裏下單,然後扣減了10個庫存,其中一個將庫存從12臺扣減爲2臺,另外一個將庫存從2臺扣減爲-8臺。

現在完了,庫存出現了負數!淚奔啊,沒有20臺iphone發給兩個用戶啊!這可如何是好。

用分佈式鎖如何解決庫存超賣問題?

我們用分佈式鎖如何解決庫存超賣問題呢?其實很簡單,我們先看看分佈式鎖的實現原理:

同一個鎖key,同一時間只能有一個客戶端拿到鎖,其他客戶端會陷入無限的等待來嘗試獲取那個鎖,只有獲取到鎖的客戶端才能執行下面的業務邏輯。

http://img4.mukewang.com/5da546fd0001ea1e06810368.jpg

代碼大概就是上面那個樣子,現在我們來分析一下,爲啥這樣做可以避免庫存超賣?

http://img3.mukewang.com/5da5470500018d1806540298.jpg

大家可以順着上面的那個步驟序號看一遍,馬上就明白了。

從上圖可以看到,只有一個訂單系統實例可以成功加分佈式鎖,然後只有他一個實例可以查庫存、判斷庫存是否充足、下單扣減庫存,接着釋放鎖。

釋放鎖之後,另外一個訂單系統實例才能加鎖,接着查庫存,一下發現庫存只有2臺了,庫存不足,無法購買,下單失敗。不會將庫存扣減爲-8的。

有沒有其他方案可以解決庫存超賣問題?

當然有啊!比如悲觀鎖,分佈式鎖,樂觀鎖,隊列串行化,異步隊列分散,Redis原子操作,等等,很多方案,我們對庫存超賣有自己的一整套優化機制。

但是前面說過了,這篇文章就聊一個分佈式鎖的併發優化,不是聊庫存超賣的解決方案,所以庫存超賣只是一個業務場景而已

分佈式鎖的方案在高併發場景下

好,現在我們來看看,分佈式鎖的方案在高併發場景下有什麼問題?

問題很大啊!兄弟,不知道你看出來了沒有。分佈式鎖一旦加了之後,對同一個商品的下單請求,會導致所有客戶端都必須對同一個商品的庫存鎖key進行加鎖。

比如,對iphone這個商品的下單,都必對“iphone_stock”這個鎖key來加鎖。這樣會導致對同一個商品的下單請求,就必須串行化,一個接一個的處理。

大家再回去對照上面的圖反覆看一下,應該能想明白這個問題。

假設加鎖之後,釋放鎖之前,查庫存 -> 創建訂單 -> 扣減庫存,這個過程性能很高吧,算他全過程20毫秒,這應該不錯了。

那麼1秒是1000毫秒,只能容納50個對這個商品的請求依次串行完成處理。

比如一秒鐘來50個請求,都是對iphone下單的,那麼每個請求處理20毫秒,一個一個來,最後1000毫秒正好處理完50個請求。

大家看一眼下面的圖,加深一下感覺。

http://img2.mukewang.com/5da547150001177806470231.jpg

所以看到這裏,大家起碼也明白了,簡單的使用分佈式鎖來處理庫存超賣問題,存在什麼缺陷。

缺陷就是同一個商品多用戶同時下單的時候,會基於分佈式鎖串行化處理,導致沒法同時處理同一個商品的大量下單的請求。

這種方案,要是應對那種低併發、無秒殺場景的普通小電商系統,可能還可以接受。

因爲如果併發量很低,每秒就不到10個請求,沒有瞬時高併發秒殺單個商品的場景的話,其實也很少會對同一個商品在一秒內瞬間下1000個訂單,因爲小電商系統沒那場景。

如何對分佈式鎖進行高併發優化?

好了,終於引入正題了,那麼現在怎麼辦呢?

面試官說,我現在就卡死,庫存超賣就是用分佈式鎖來解決,而且一秒對一個iphone下上千訂單,怎麼優化?

現在按照剛纔的計算,你一秒鐘只能處理針對iphone的50個訂單。

其實說出來也很簡單,相信很多人看過java裏的ConcurrentHashMap的源碼和底層原理,應該知道里面的核心思路,就是分段加鎖

把數據分成很多個段,每個段是一個單獨的鎖,所以多個線程過來併發修改數據的時候,可以併發的修改不同段的數據。不至於說,同一時間只能有一個線程獨佔修改ConcurrentHashMap中的數據。

另外,Java 8中新增了一個LongAdder類,也是針對Java 7以前的AtomicLong進行的優化,解決的是CAS類操作在高併發場景下,使用樂觀鎖思路,會導致大量線程長時間重複循環。

LongAdder中也是採用了類似的分段CAS操作,失敗則自動遷移到下一個分段進行CAS的思路。

其實分佈式鎖的優化思路也是類似的,之前我們是在另外一個業務場景下落地了這個方案到生產中,不是在庫存超賣問題裏用的。

但是庫存超賣這個業務場景不錯,很容易理解,所以我們就用這個場景來說一下。

大家看看下面的圖:

http://img1.mukewang.com/5da5472d0001349b06560835.jpg

其實這就是分段加鎖。你想,假如你現在iphone有1000個庫存,那麼你完全可以給拆成20個庫存段,要是你願意,可以在數據庫的表裏建20個庫存字段,比如stock_01,stock_02,類似這樣的,也可以在redis之類的地方放20個庫存key。

總之,就是把你的1000件庫存給他拆開,每個庫存段是50件庫存,比如stock_01對應50件庫存,stock_02對應50件庫存。

接着,每秒1000個請求過來了,好!此時其實可以是自己寫一個簡單的隨機算法,每個請求都是隨機在20個分段庫存裏,選擇一個進行加鎖。

這樣就好了,同時可以有最多20個下單請求一起執行,每個下單請求鎖了一個庫存分段,然後在業務邏輯裏面,就對數據庫或者是Redis中的那個分段庫存進行操作即可,包括查庫存 -> 判斷庫存是否充足 -> 扣減庫存。

這相當於什麼呢?相當於一個20毫秒,可以併發處理掉20個下單請求,那麼1秒,也就可以依次處理掉20 * 50  = 1000個對iphone的下單請求了。

一旦對某個數據做了分段處理之後,有一個坑大家一定要注意:如果某個下單請求,咔嚓加鎖,然後發現這個分段庫存裏的庫存不足了,此時咋辦?

這時你得自動釋放鎖,然後立馬換下一個分段庫存,再次嘗試加鎖後嘗試處理。這個過程一定要實現。

分佈式鎖併發優化方案有沒有什麼不足?

不足肯定是有的,最大的不足,大家發現沒有,很不方便啊!實現太複雜了。

  • 首先,你得對一個數據分段存儲,一個庫存字段本來好好的,現在要分爲20個分段庫存字段;

  • 其次,你在每次處理庫存的時候,還得自己寫隨機算法,隨機挑選一個分段來處理;

  • 最後,如果某個分段中的數據不足了,你還得自動切換到下一個分段數據去處理。

這個過程都是要手動寫代碼實現的,還是有點工作量,挺麻煩的。

不過我們確實在一些業務場景裏,因爲用到了分佈式鎖,然後又必須要進行鎖併發的優化,又進一步用到了分段加鎖的技術方案,效果當然是很好的了,一下子併發性能可以增長几十倍。

該優化方案的後續改進

以我們本文所說的庫存超賣場景爲例,你要是這麼玩,會把自己搞的很痛苦!

因此再次強調,這裏的庫存超賣場景,僅僅只是作爲演示場景而已,以後有機會,再單獨聊聊高併發秒殺系統架構下的庫存超賣的其他解決方案。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章