Java Map 中那些巧妙的設計

最近拜讀了一些Java Map的相關源碼,不得不驚歎於JDK開發者們的鬼斧神工。他山之石可以攻玉,這些巧妙的設計思想非常有借鑑價值,可謂是最佳實踐。然而,大多數有關Java Map原理的科普類文章都是專注於“點”,並沒有連成“線”,甚至形成“網狀結構”。因此,本文基於個人理解,對所閱讀的部分源碼進行了分類與總結,歸納出Map中的幾個核心特性,包括:自動擴容、初始化與懶加載、哈希計算、位運算與併發,並結合源碼進行深入講解,希望看完本文的你也能從中獲取到些許收穫(本文默認採用JDK1.8中的HashMap)。

一 自動擴容

最小可用原則,容量超過一定閾值便自動進行擴容。

擴容是通過resize方法來實現的。擴容發生在putVal方法的最後,即寫入元素之後纔會判斷是否需要擴容操作,當自增後的size大於之前所計算好的閾值threshold,即執行resize操作。

通過位運算<<1進行容量擴充,即擴容1倍,同時新的閾值newThr也擴容爲老閾值的1倍。

擴容時,總共存在三種情況:

  • 哈希桶數組中某個位置只有1個元素,即不存在哈希衝突時,則直接將該元素copy至新哈希桶數組的對應位置即可。
  • 哈希桶數組中某個位置的節點爲樹節點時,則執行紅黑樹的擴容操作。
  • 哈希桶數組中某個位置的節點爲普通節點時,則執行鏈表擴容操作,在JDK1.8中,爲了避免之前版本中併發擴容所導致的死鏈問題,引入了高低位鏈表輔助進行擴容操作。

在日常的開發過程中,會遇到一些bad case,比如:

HashMap hashMap = new HashMap(2);
hashMap.put("1", 1);
hashMap.put("2", 2);
hashMap.put("3", 3);

當hashMap設置最後一個元素3的時候,會發現當前的哈希桶數組大小已經達到擴容閾值2*0.75=1.5,緊接着會執行一次擴容操作,因此,此類的代碼每次運行的時候都會進行一次擴容操作,效率低下。在日常開發過程中,一定要充分評估好HashMap的大小,儘可能保證擴容的閾值大於存儲元素的數量,減少其擴容次數。

二 初始化與懶加載

初始化的時候只會設置默認的負載因子,並不會進行其他初始化的操作,在首次使用的時候纔會進行初始化。

當new一個新的HashMap的時候,不會立即對哈希數組進行初始化,而是在首次put元素的時候,通過resize()方法進行初始化。

resize()中會設置默認的初始化容量DEFAULT_INITIAL_CAPACITY爲16,擴容的閾值爲0.75*16 = 12,即哈希桶數組中元素達到12個便進行擴容操作。

最後創建容量爲16的Node數組,並賦值給成員變量哈希桶table,即完成了HashMap的初始化操作。

三 哈希計算

哈希表以哈希命名,足以說明哈希計算在該數據結構中的重要程度。而在實現中,JDK並沒有直接使用Object的native方法返回的hashCode作爲最終的哈希值,而是進行了二次加工。

以下分別爲HashMap與ConcurrentHashMap計算hash值的方法,核心的計算邏輯相同,都是使用key對應的hashCode與其hashCode右移16位的結果進行異或操作。此處,將高16位與低16位進行異或的操作稱之爲擾動函數,目的是將高位的特徵融入到低位之中,降低哈希衝突的概率。

舉個例子來理解下擾動函數的作用:

hashCode(key1) = 0000 0000 0000 1111 0000 0000 0000 0010
hashCode(key2) = 0000 0000 0000 0000 0000 0000 0000 0010

若HashMap容量爲4,在不使用擾動函數的情況下,key1與key2的hashCode註定會衝突(後兩位相同,均爲01)。

經過擾動函數處理後,可見key1與key2 hashcode的後兩位不同,上述的哈希衝突也就避免了。

hashCode(key1) ^ (hashCode(key1) >>> 16)
0000 0000 0000 1111 0000 0000 0000 1101

hashCode(key2) ^ (hashCode(key2) >>> 16)
0000 0000 0000 0000 0000 0000 0000 0010

這種增益會隨着HashMap容量的減少而增加。《An introduction to optimising a hashing strategy》文章中隨機選取了哈希值不同的352個字符串,當HashMap的容量爲2^9時,使用擾動函數可以減少10%的碰撞,可見擾動函數的必要性。

此外,ConcurrentHashMap中經過擾亂函數處理之後,需要與HASH_BITS做與運算,HASH_BITS爲0x7ffffff,即只有最高位爲0,這樣運算的結果使hashCode永遠爲正數。在ConcurrentHashMap中,預定義了幾個特殊節點的hashCode,如:MOVED、TREEBIN、RESERVED,它們的hashCode均定義爲負值。因此,將普通節點的hashCode限定爲正數,也就是爲了防止與這些特殊節點的hashCode產生衝突。

1 哈希衝突

通過哈希運算,可以將不同的輸入值映射到指定的區間範圍內,隨之而來的是哈希衝突問題。考慮一個極端的case,假設所有的輸入元素經過哈希運算之後,都映射到同一個哈希桶中,那麼查詢的複雜度將不再是O(1),而是O(n),相當於線性表的順序遍歷。因此,哈希衝突是影響哈希計算性能的重要因素之一。哈希衝突如何解決呢?主要從兩個方面考慮,一方面是避免衝突,另一方面是在衝突時合理地解決衝突,儘可能提高查詢效率。前者在上面的章節中已經進行介紹,即通過擾動函數來增加hashCode的隨機性,避免衝突。針對後者,HashMap中給出了兩種方案:拉鍊表與紅黑樹。

拉鍊表

在JDK1.8之前,HashMap中是採用拉鍊表的方法來解決衝突,即當計算出的hashCode對應的桶上已經存在元素,但兩者key不同時,會基於桶中已存在的元素拉出一條鏈表,將新元素鏈到已存在元素的前面。當查詢存在衝突的哈希桶時,會順序遍歷衝突鏈上的元素。同一key的判斷邏輯如下圖所示,先判斷hash值是否相同,再比較key的地址或值是否相同。

(1)死鏈

在JDK1.8之前,HashMap在併發場景下擴容時存在一個bug,形成死鏈,導致get該位置元素的時候,會死循環,使CPU利用率高居不下。這也說明了HashMap不適於用在高併發的場景,高併發應該優先考慮JUC中的ConcurrentHashMap。然而,精益求精的JDK開發者們並沒有選擇繞過問題,而是選擇直面問題並解決它。在JDK1.8之中,引入了高低位鏈表(雙端鏈表)。

什麼是高低位鏈表呢?在擴容時,哈希桶數組buckets會擴容一倍,以容量爲8的HashMap爲例,原有容量8擴容至16,將[0, 7]稱爲低位,[8, 15]稱爲高位,低位對應loHead、loTail,高位對應hiHead、hiTail。

擴容時會依次遍歷舊buckets數組的每一個位置上面的元素:

  • 若不存在衝突,則重新進行hash取模,並copy到新buckets數組中的對應位置。
  • 若存在衝突元素,則採用高低位鏈表進行處理。通過e.hash & oldCap來判斷取模後是落在高位還是低位。舉個例子:假設當前元素hashCode爲0001(忽略高位),其運算結果等於0,說明擴容後結果不變,取模後還是落在低位[0, 7],即0001 & 1000 = 0000,還是原位置,再用低位鏈表將這類的元素鏈接起來。假設當前元素的hashCode爲1001, 其運算結果不爲0,即1001 & 1000 = 1000 ,擴容後會落在高位,新的位置剛好是舊數組索引(1) + 舊數據長度(8) = 9,再用高位鏈表將這些元素鏈接起來。最後,將高低位鏈表的頭節點分別放在擴容後數組newTab的指定位置上,即完成了擴容操作。這種實現降低了對共享資源newTab的訪問頻次,先組織衝突節點,最後再放入newTab的指定位置。避免了JDK1.8之前每遍歷一個元素就放入newTab中,從而導致併發擴容下的死鏈問題。

紅黑樹

在JDK1.8之中,HashMap引入了紅黑樹來處理哈希衝突問題,而不再是拉鍊表。那麼爲什麼要引入紅黑樹來替代鏈表呢?雖然鏈表的插入性能是O(1),但查詢性能卻是O(n),當哈希衝突元素非常多時,這種查詢性能是難以接受的。因此,在JDK1.8中,如果衝突鏈上的元素數量大於8,並且哈希桶數組的長度大於64時,會使用紅黑樹代替鏈表來解決哈希衝突,此時的節點會被封裝成TreeNode而不再是Node(TreeNode其實繼承了Node,以利用多態特性),使查詢具備O(logn)的性能。

這裏簡單地回顧一下紅黑樹,它是一種平衡的二叉樹搜索樹,類似地還有AVL樹。兩者核心的區別是AVL樹追求“絕對平衡”,在插入、刪除節點時,成本要高於紅黑樹,但也因此擁有了更好的查詢性能,適用於讀多寫少的場景。然而,對於HashMap而言,讀寫操作其實難分伯仲,因此選擇紅黑樹也算是在讀寫性能上的一種折中。

四 位運算

1 確定哈希桶數組大小

找到大於等於給定值的最小2的整數次冪。

tableSizeFor根據輸入容量大小cap來計算最終哈希桶數組的容量大小,找到大於等於給定值cap的最小2的整數次冪。乍眼一看,這一行一行的位運算讓人云裏霧裏,莫不如採用類似找規律的方式來探索其中的奧祕。

當cap爲3時,計算過程如下:

cap = 3
n = 2
n |= n >>> 1       010  | 001 = 011   n = 3
n |= n >>> 2       011  | 000 = 011   n = 3
n |= n >>> 4       011  | 000 = 011   n = 3
….
n = n + 1 = 4

當cap爲5時,計算過程如下:

cap = 5
n = 4
n |= n >>> 1    0100 | 0010 = 0110  n = 6
n |= n >>> 2    0110 | 0001 = 0111  n = 7
….
n = n + 1 = 8

因此,計算的意義在於找到大於等於cap的最小2的整數次冪。整個過程是找到cap對應二進制中最高位的1,然後每次以2倍的步長(依次移位1、2、4、8、16)複製最高位1到後面的所有低位,把最高位1後面的所有位全部置爲1,最後進行+1,即完成了進位。

類似二進制位的變化過程如下:

0100 1010
0111 1111
1000 0000

找到輸入cap的最小2的整數次冪作爲最終容量可以理解爲最小可用原則,儘可能地少佔用空間,但是爲什麼必須要2的整數次冪呢?答案是,爲了提高計算與存儲效率,使每個元素對應hash值能夠準確落入哈希桶數組給定的範圍區間內。確定數組下標採用的算法是 hash & (n - 1),n即爲哈希桶數組的大小。由於其總是2的整數次冪,這意味着n-1的二進制形式永遠都是0000111111的形式,即從最低位開始,連續出現多個1,該二進制與任何值進行&運算都會使該值映射到指定區間[0, n-1]。比如:當n=8時,n-1對應的二進制爲0111,任何與0111進行&運算都會落入[0,7]的範圍內,即落入給定的8個哈希桶中,存儲空間利用率100%。舉個反例,當n=7,n-1對應的二進制爲0110,任何與0110進行&運算會落入到第0、6、4、2個哈希桶,而不是[0,6]的區間範圍內,少了1、3、5三個哈希桶,這導致存儲空間利用率只有不到60%,同時也增加了哈希碰撞的機率。

2 ASHIFT偏移量計算

獲取給定值的最高有效位數(移位除了能夠進行乘除運算,還能用於保留高、低位操作,右移保留高位,左移保留低位)。

ConcurrentHashMap中的ABASE+ASHIFT是用來計算哈希數組中某個元素在實際內存中的初始位置,ASHIFT採取的計算方式是31與scale前導0的數量做差,也就是scale的實際位數-1。scale就是哈希桶數組Node[]中每個元素的大小,通過((long)i << ASHIFT) + ABASE)進行計算,便可得到數組中第i個元素的起始內存地址。

我們繼續看下前導0的數量是怎麼計算出來的,numberOfLeadingZeros是Integer的靜態方法,還是沿用找規律的方式一探究竟。

假設 i = 0000 0000 0000 0100 0000 0000 0000 0000,n = 1

i >>> 16  0000 0000 0000 0000 0000 0000 0000 0100   不爲0

i >>> 24  0000 0000 0000 0000 0000 0000 0000 0000   等於0

右移了24位等於0,說明24位到31位之間肯定全爲0,即n = 1 + 8 = 9,由於高8位全爲0,並且已經將信息記錄至n中,因此可以捨棄高8位,即 i <<= 8。此時,

i = 0000 0100 0000 0000 0000 0000 0000 0000

類似地,i >>> 28 也等於0,說明28位到31位全爲0,n = 9 + 4 = 13,捨棄高4位。此時,

i = 0100 0000 0000 0000 0000 0000 0000 0000

繼續運算,

i >>> 30  0000 0000 0000 0000 0000 0000 0000 0001   不爲0
i >>> 31  0000 0000 0000 0000 0000 0000 0000 0000   等於0

最終可得出n = 13,即有13個前導0。n -= i >>> 31是檢查最高位31位是否是1,因爲n初始化爲1,如果最高位是1,則不存在前置0,即n = n - 1 = 0。

總結一下,以上的操作其實是基於二分法的思想來定位二進制中1的最高位,先看高16位,若爲0,說明1存在於低16位;反之存在高16位。由此將搜索範圍由32位(確切的說是31位)減少至16位,進而再一分爲二,校驗高8位與低8位,以此類推。

計算過程中校驗的位數依次爲16、8、4、2、1,加起來剛好爲31。爲什麼是31不是32呢?因爲前置0的數量爲32的情況下i只能爲0,在前面的if條件中已經進行過濾。這樣一來,非0值的情況下,前置0只能出現在高31位,因此只需要校驗高31位即可。最終,用總位數減去計算出來的前導0的數量,即可得出二進制的最高有效位數。代碼中使用的是31 -
Integer.numberOfLeadingZeros(scale),而不是總位數32,這是爲了能夠得到哈希桶數組中第i個元素的起始內存地址,方便進行CAS等操作。

五 併發

1 悲觀鎖

全表鎖

HashTable中採用了全表鎖,即所有操作均上鎖,串行執行,如下圖中的put方法所示,採用synchronized關鍵字修飾。這樣雖然保證了線程安全,但是在多核處理器時代也極大地影響了計算性能,這也致使HashTable逐漸淡出開發者們的視野。

分段鎖

針對HashTable中鎖粒度過粗的問題,在JDK1.8之前,ConcurrentHashMap引入了分段鎖機制。整體的存儲結構如下圖所示,在原有結構的基礎上拆分出多個segment,每個segment下再掛載原來的entry(上文中經常提到的哈希桶數組),每次操作只需要鎖定元素所在的segment,不需要鎖定整個表。因此,鎖定的範圍更小,併發度也會得到提升。

2 樂觀鎖

Synchronized+CAS

雖然引入了分段鎖的機制,即可以保證線程安全,又可以解決鎖粒度過粗導致的性能低下問題,但是對於追求極致性能的工程師來說,這還不是性能的天花板。因此,在JDK1.8中,ConcurrentHashMap摒棄了分段鎖,使用了樂觀鎖的實現方式。放棄分段鎖的原因主要有以下幾點:

  • 使用segment之後,會增加ConcurrentHashMap的存儲空間。
  • 當單個segment過大時,併發性能會急劇下降。

ConcurrentHashMap在JDK1.8中的實現廢棄了之前的segment結構,沿用了與HashMap中的類似的Node數組結構。

ConcurrentHashMap中的樂觀鎖是採用synchronized+CAS進行實現的。這裏主要看下put的相關代碼。

當put的元素在哈希桶數組中不存在時,則直接CAS進行寫操作。

這裏涉及到了兩個重要的操作,tabAt與casTabAt。可以看出,這裏面都使用了Unsafe類的方法。Unsafe這個類在日常的開發過程中比較罕見。我們通常對Java語言的認知是:Java語言是安全的,所有操作都基於JVM,在安全可控的範圍內進行。然而,Unsafe這個類會打破這個邊界,使Java擁有C的能力,可以操作任意內存地址,是一把雙刃劍。這裏使用到了前文中所提到的ASHIFT,來計算出指定元素的起始內存地址,再通過getObjectVolatile與compareAndSwapObject分別進行取值與CAS操作。

在獲取哈希桶數組中指定位置的元素時爲什麼不能直接get而是要使用getObjectVolatile呢?因爲在JVM的內存模型中,每個線程有自己的工作內存,也就是棧中的局部變量表,它是主存的一份copy。因此,線程1對某個共享資源進行了更新操作,並寫入到主存,而線程2的工作內存之中可能還是舊值,髒數據便產生了。Java中的volatile是用來解決上述問題,保證可見性,任意線程對volatile關鍵字修飾的變量進行更新時,會使其它線程中該變量的副本失效,需要從主存中獲取最新值。雖然ConcurrentHashMap中的Node數組是由volatile修飾的,可以保證可見性,但是Node數組中元素是不具備可見性的。因此,在獲取數據時通過Unsafe的方法直接到主存中拿,保證獲取的數據是最新的。

繼續往下看put方法的邏輯,當put的元素在哈希桶數組中存在,並且不處於擴容狀態時,則使用synchronized鎖定哈希桶數組中第i個位置中的第一個元素f(頭節點2),接着進行double check,類似於DCL單例模式的思想。校驗通過後,會遍歷當前衝突鏈上的元素,並選擇合適的位置進行put操作。此外,ConcurrentHashMap也沿用了HashMap中解決哈希衝突的方案,鏈表+紅黑樹。這裏只有在發生哈希衝突的情況下才使用synchronized鎖定頭節點,其實是比分段鎖更細粒度的鎖實現,只在特定場景下鎖定其中一個哈希桶,降低鎖的影響範圍。

Java Map針對併發場景解決方案的演進方向可以歸結爲,從悲觀鎖到樂觀鎖,從粗粒度鎖到細粒度鎖,這也可以作爲我們在日常併發編程中的指導方針。

3 併發求和

CounterCell是JDK1.8中引入用來併發求和的利器,而在這之前採用的是【嘗試無鎖求和】+【衝突時加鎖重試】的策略。看下CounterCell的註釋,它是改編自LongAdder和Striped64。我們先看下求和操作,其實就是取baseCount作爲初始值,然後遍歷CounterCell數組中的每一個cell,將各個cell的值進行累加。這裏額外說明下@sun.misc.Contender註解的作用,它是Java8中引入用來解決緩存行僞共享問題的。什麼是僞共享呢?簡單說下,考慮到CPU與主存之間速度的巨大差異,在CPU中引入了L1、L2、L3多級緩存,緩存中的存儲單位是緩存行,緩存行大小爲2的整數次冪字節,32-256個字節不等,最常見的是64字節。因此,這將導致不足64字節的變量會共享同一個緩存行,其中一個變量失效會影響到同一個緩存行中的其他變量,致使性能下降,這就是僞共享問題。考慮到不同CPU的緩存行單位的差異性,Java8中便通過該註解將這種差異性屏蔽,根據實際緩存行大小來進行填充,使被修飾的變量能夠獨佔一個緩存行。

再來看下CounterCell是如何實現計數的,每當map中的容量有變化時會調用addCount進行計數,核心邏輯如下:

  • 當counterCells不爲空,或counterCells爲空且對baseCount進行CAS操作失敗時進入到後續計數處理邏輯,否則對baseCount進行CAS操作成功,直接返回。
  • 後續計數處理邏輯中會調用核心計數方法fullAddCount,但需要滿足以下4個條件中的任意一個:1、counterCells爲空;2、counterCells的size爲0;3、counterCells對應位置上的counterCell爲空;4、CAS更新counterCells對應位置上的counterCell失敗。這些條件背後的語義是,當前情況下,計數已經或曾經出現過併發衝突,需要優先借助於CounterCell來解決。若counterCells與對應位置上的元素已經初始化(條件4),則先嚐試CAS進行更新,若失敗則調用fullAddCount繼續處理。若counterCells與對應位置上的元素未初始化完成(條件1、2、3),也要調用AddCount進行後續處理。
  • 這裏確定cell下標時採用了ThreadLocalRandom.getProbe()作爲哈希值,這個方法返回的是當前Thread中threadLocalRandomProbe字段的值。而且當哈希值衝突時,還可以通過advanceProbe方法來更換哈希值。這與HashMap中的哈希值計算邏輯不同,因爲HashMap中要保證同一個key進行多次哈希計算的哈希值相同並且能定位到對應的value,即便兩個key的哈希值衝突也不能隨便更換哈希值,只能採用鏈表或紅黑樹處理衝突。然而在計數場景,我們並不需要維護key-value的關係,只需要在counterCells中找到一個合適的位置放入計數cell,位置的差異對最終的求和結果是沒有影響的,因此當衝突時可以基於隨機策略更換一個哈希值來避免衝突。

接着,我們來看下核心計算邏輯fullAddCount,代碼還是比較多的,核心流程是通過一個死循環來實現的,循環體中包含了3個處理分支,爲了方便講解我將它們依次定義A、B、C。

  • A:表示counterCells已經初始化完成,因此可以嘗試更新或創建對應位置的CounterCell。
  • B:表示counterCells未初始化完成,且無衝突(拿到cellsBusy鎖),則加鎖初始化counterCells,初始容量爲2。
  • C:表示counterCells未初始化完成,且有衝突(未能拿到cellsBusy鎖),則CAS更新baseCount,baseCount在求和時也會被算入到最終結果中,這也相當於是一種兜底策略,既然counterCells正在被其他線程鎖定,那當前線程也沒必要再等待了,直接嘗試使用baseCount進行累加。

其中,A分支中涉及到的操作又可以拆分爲以下幾點:

  • a1:對應位置的CounterCell未創建,採用鎖+Double Check的策略嘗試創建CounterCell,失敗的話則continue進行重試。這裏面採用的鎖是cellsBusy,它保證創建CounterCell並放入counterCells時一定是串行執行,避免重複創建,其實就是使用了DCL單例模式的策略。在CounterCells的創建、擴容中都需要使用該鎖。
  • a2:衝突檢測,變量wasUncontended是調用方addCount中傳入的,表示前置的CAS更新cell失敗,有衝突,需要更換哈希值【a7】後繼續重試。
  • a3:對應位置的CounterCell不爲空,直接CAS進行更新。
  • a4:衝突檢測,當counterCells的引用值不等於當前線程對應的引用值時,說明有其他線程更改了counterCells的引用,出現衝突,則將collide設爲false,下次迭代時可進行擴容。容量限制,counterCells容量的最大值爲大於等於NCPU(實際機器CPU核心的數量)的最小2的整數次冪,當達到容量限制時後面的擴容分支便永遠不會執行。這裏限制的意義在於,真實併發度是由CPU核心來決定,當counterCells容量與CPU核心數量相等時,理想情況下就算所有CPU核心在同時運行不同的計數線程時,都不應該出現衝突,每個線程選擇各自的cell進行處理即可。如果出現衝突,一定是哈希值的問題,因此採取的措施是重新計算哈希值a7,而不是通過擴容來解決。時間換空間,避免不必要的存儲空間浪費,非常讚的想法~
  • a5:更新擴容標誌位,下次迭代時將會進行擴容。
  • a6:進行加鎖擴容,每次擴容1倍。
  • a7:更換哈希值。
private final void fullAddCount(long x, boolean wasUncontended) {
        int h;
        // 初始化probe
        if ((h = ThreadLocalRandom.getProbe()) == 0) {
            ThreadLocalRandom.localInit();      // force initialization
            h = ThreadLocalRandom.getProbe();
            wasUncontended = true;
        }
        // 用來控制擴容操作
        boolean collide = false;                // True if last slot nonempty
        for (;;) {
            CounterCell[] as; CounterCell a; int n; long v;
            // 【A】counterCells已經初始化完畢
            if ((as = counterCells) != null && (n = as.length) > 0) {
                // 【a1】對應位置的CounterCell未創建
                if ((a = as[(n - 1) & h]) == null) {
                    // cellsBusy其實是一個鎖,cellsBusy=0時表示無衝突
                    if (cellsBusy == 0) {            // Try to attach new Cell
                        // 創建新的CounterCell
                        CounterCell r = new CounterCell(x); // Optimistic create
                        // Double Check,加鎖(通過CAS將cellsBusy設置1)
                        if (cellsBusy == 0 &&
                            U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) {
                            boolean created = false;
                            try {               // Recheck under lock
                                CounterCell[] rs; int m, j;
                                // Double Check
                                if ((rs = counterCells) != null &&
                                    (m = rs.length) > 0 &&
                                    rs[j = (m - 1) & h] == null) {
                                    // 將新創建的CounterCell放入counterCells中
                                    rs[j] = r;
                                    created = true;
                                }
                            } finally {
                                // 解鎖,這裏爲什麼不用CAS?因爲當前流程中需要在獲取鎖的前提下進行,即串行執行,因此不存在併發更新問題,只需要正常更新即可
                                cellsBusy = 0;
                            }
                            if (created)
                                break;
                            // 創建失敗則重試
                            continue;           // Slot is now non-empty
                        }
                    }
                    // cellsBusy不爲0,說明被其他線程爭搶到了鎖,還不能考慮擴容
                    collide = false;
                }
                //【a2】衝突檢測
                else if (!wasUncontended)       // CAS already known to fail
                    // 調用方addCount中CAS更新cell失敗,有衝突,則繼續嘗試CAS
                    wasUncontended = true;      // Continue after rehash

                //【a3】對應位置的CounterCell不爲空,直接CAS進行更新
                else if (U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))
                    break;
                //【a4】容量限制
                else if (counterCells != as || n >= NCPU)
                    // 說明counterCells容量的最大值爲大於NCPU(實際機器CPU核心的數量)最小2的整數次冪。
                    // 這裏限制的意義在於,併發度是由CPU核心來決定,當counterCells容量與CPU核心數量相等時,理論上講就算所有CPU核心都在同時運行不同的計數線程時,都不應該出現衝突,每個線程選擇各自的cell進行處理即可。如果出現衝突,一定是哈希值的問題,因此採取的措施是重新計算哈希值(h = ThreadLocalRandom.advanceProbe(h)),而不是通過擴容來解決

                    // 當n大於NCPU時後面的分支就不會走到了
                    collide = false;            // At max size or stale
                // 【a5】更新擴容標誌位
                else if (!collide)
                    // 說明映射到cell位置不爲空,並且嘗試進行CAS更新時失敗了,則說明有競爭,將collide設置爲true,下次迭代時執行後面的擴容操作,降低競爭度
                    // 有競爭時,執行rehash+擴容,當容量大於CPU核心時則停止擴容只進行rehash
                    collide = true;
                // 【a6】加鎖擴容
                else if (cellsBusy == 0 &&
                         U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) {
                    // 加鎖擴容
                    try {
                        if (counterCells == as) {// Expand table unless stale
                            // 擴容1倍
                            CounterCell[] rs = new CounterCell[n << 1];
                            for (int i = 0; i < n; ++i)
                                rs[i] = as[i];
                            counterCells = rs;
                        }
                    } finally {
                        cellsBusy = 0;
                    }
                    collide = false;
                    continue;                   // Retry with expanded table
                }
                //【a7】更換哈希值
                h = ThreadLocalRandom.advanceProbe(h);
            }
            // 【B】counterCells未初始化完成,且無衝突,則加鎖初始化counterCells
            else if (cellsBusy == 0 && counterCells == as &&
                     U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) {
                boolean init = false;
                try {                           // Initialize table
                    if (counterCells == as) {
                        CounterCell[] rs = new CounterCell[2];
                        rs[h & 1] = new CounterCell(x);
                        counterCells = rs;
                        init = true;
                    }
                } finally {
                    cellsBusy = 0;
                }
                if (init)
                    break;
            }
            // 【C】counterCells未初始化完成,且有衝突,則CAS更新baseCount
            else if (U.compareAndSwapLong(this, BASECOUNT, v = baseCount, v + x))
                break;                          // Fall back on using base
        }

CounterCell的設計很巧妙,它的背後其實就是JDK1.8中的LongAdder。核心思想是:在併發較低的場景下直接採用baseCount累加,否則結合counterCells,將不同的線程散列到不同的cell中進行計算,儘可能地確保訪問資源的隔離,減少衝突。LongAdder相比較於AtomicLong中無腦CAS的策略,在高併發的場景下,能夠減少CAS重試的次數,提高計算效率。

六 結語

以上可能只是Java Map源碼中的冰山一角,但是基本包括了大部分的核心特性,涵蓋了我們日常開發中的大部分場景。讀源碼跟讀書一樣,彷彿跨越了歷史長河與作者進行近距離對話,揣摩他的心思,學習他的思想並加以傳承。信息加工轉化爲知識並運用的過程是痛苦的,但是痛並快樂着。

原文鏈接

本文爲阿里雲原創內容,未經允許不得轉載。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章