阿里P7崗位面試,面試官問我:爲什麼HashMap底層樹化標準的元素個數是8

前言

先聲明一下,本文有點標題黨了,像我這樣的菜雞何德何能去面試阿里的P7崗啊,不過,這確實是阿里p7級崗位的面試題,當然,參加面試的人不是我,而是我部門的一個大佬。他把自己的面試經驗分享給了我,也讓我間接體會下阿里級別的面試難度,這樣算起來,我也勉強算是經歷面試過阿里P7的崗位的人吧,頓時感覺信心暴漲。

一般的面試題

對於HashMap,我們再熟悉不過了,日常開發最常用的Java集合類就是它了,而且面試的時候對於HashMap知識點基本是必問的,就拿我之前的面試經歷來看,問的最多的無非是這麼幾個:

1、HashMap的底層存儲結構是怎樣的啊?

2、線程安全嗎?爲什麼不安全?

3、1.7和1.8版本的HashMap有什麼區別?1.7的有什麼隱患,什麼原因導致的?

4、hashcode是唯一的嗎?插入元素的時候怎麼比較的?

5、跟HashTable,ConcurrentHashMap有什麼區別?

對於這些問題,如果你看過一些博客,或者大概的瀏覽過源碼的話,基本都能答出來,我之前參加過很多面試,也很少在HashMap這塊失過手。

事實證明,我還是年輕了點(怎麼說也是90後的)。有時候,你答的好不是因爲你懂得多,而是人家問的不深,如果你沒有對源碼做深入的瞭解和思考的話,別人稍微換個角度考察,你也許就會犯難了。

就好像標題上的題目,爲什麼HashMap鏈表樹化的標準是8個?說實話,儘管我之前也知道是樹化的閾值是8,但是爲什麼是這個數目我還真沒仔細的思考過,藉着這個機會,我也重新梳理了遍HashMap的源碼,本文也算是一些新的思考點的總結吧。

HashMap的基本知識點

HashMap可以說是Java項目裏最常用的集合類了,作爲一種典型的K-V存儲的數據結構,它的底層是由數組 - 鏈表組成,當添加新元素時,它會根據元素的hash值找到對應的"桶",也就是HashMap源碼中Node<K, V> 裏的元素,並插入到對應位置的鏈表中,鏈表元素個數過長時會轉化爲紅黑樹(JDK1.8後的版本),

爲什麼要轉成紅黑樹呢?

我們都知道,鏈表取元素是從頭結點一直遍歷到對應的結點,這個過程的複雜度是O(N) ,而紅黑樹基於二叉樹的結構,查找元素的複雜度爲O(logN) ,所以,當元素個數過多時,用紅黑樹存儲可以提高搜索的效率。

既然紅黑樹的效率高,那怎麼不一開始就用紅黑樹存儲呢?

這其實是基於空間和時間平衡的考慮,JDK的源碼裏已經對這個問題做了解釋:

* Because TreeNodes are about twice the size of regular nodes, we
* use them only when bins contain enough nodes to warrant use
* (see TREEIFY_THRESHOLD). And when they become too small (due to
* removal or resizing) they are converted back to plain bins.  

看註釋裏的前面四行就不難理解,單個 TreeNode 需要佔用的空間大約是普通 Node 的兩倍,所以只有當包含足夠多的 Nodes 時纔會轉成 TreeNodes,這個足夠多的標準就是由 TREEIFY_THRESHOLD 的值(默認值8)決定的。而當桶中節點數由於移除或者 resize (擴容) 變少後,紅黑樹會轉變爲普通的鏈表,這個閾值是 UNTREEIFY_THRESHOLD(默認值6)。

/**
* The bin count threshold for using a tree rather than list for a
* bin.  Bins are converted to trees when adding an element to a
* bin with at least this many nodes. The value must be greater
* than 2 and should be at least 8 to mesh with assumptions in
* tree removal about conversion back to plain bins upon
* shrinkage.
*/
static final int TREEIFY_THRESHOLD = 8;

/**
* The bin count threshold for untreeifying a (split) bin during a
* resize operation. Should be less than TREEIFY_THRESHOLD, and at
* most 6 to mesh with shrinkage detection under removal.
*/
static final int UNTREEIFY_THRESHOLD = 6;

看到這裏就不難明白了,紅黑樹雖然查詢效率比鏈表高,但是結點佔用的空間大,只有達到一定的數目纔有樹化的意義,這是基於時間和空間的平衡考慮

爲什麼樹化標準是8個

至於爲什麼樹化標準的數量是8個,在源碼中,上面那段筆記後面還有一段較長的註釋,我們可以從那一段註釋中找到答案,原文是這樣:

* usages with well-distributed user hashCodes, tree bins are
* rarely used.  Ideally, under random hashCodes, the frequency of
* nodes in bins follows a Poisson distribution
* (http://en.wikipedia.org/wiki/Poisson_distribution) with a
* parameter of about 0.5 on average for the default resizing
* threshold of 0.75, although with a large variance because of
* resizing granularity. Ignoring variance, the expected
* occurrences of list size k are (exp(-0.5) * pow(0.5, k) /
* factorial(k)). The first values are:
*
* 0:    0.60653066
* 1:    0.30326533
* 2:    0.07581633
* 3:    0.01263606
* 4:    0.00157952
* 5:    0.00015795
* 6:    0.00001316
* 7:    0.00000094
* 8:    0.00000006
* more: less than 1 in ten million

大概意思就是:如果 hashCode的分佈離散良好的話,那麼紅黑樹是很少會被用到的,因爲各個值都均勻分佈,很少出現鏈表很長的情況。在理想情況下,鏈表長度符合泊松分佈,各個長度的命中概率依次遞減,註釋中給我們展示了1-8長度的具體命中概率,當長度爲8的時候,概率概率僅爲0.00000006,這麼小的概率,HashMap的紅黑樹轉換幾乎不會發生,因爲我們日常使用不會存儲那麼多的數據,你會存上千萬個數據到HashMap中嗎?

當然,這是理想的算法,但不妨某些用戶使用HashMap過程導致hashCode分佈離散很差的場景,這個時候再轉換爲紅黑樹就是一種很好的退讓策略。

至於什麼情況下會導致這樣的場景,大家可以自己思考或網上找一下答案,我就不再贅述了,省點力氣。

別,咱好好說話,我接着寫還不行嗎,不容易啊,被你們白嫖就算了,還要被冠上渣男的稱號,我圖啥呢?

首先說明一下,在HashMap中,決定某個對象落在哪一個 “桶“,是由該對象的hashCode決定的,JDK無法阻止用戶實現自己的哈希算法,如果用戶重寫了hashCode,並且算法實現比較差的話,就很可能會使HashMap的鏈表變得很長,就比如這樣:

public class HashMapTest {
    public static void main(String[] args) {
        Map<User, Integer> map = new HashMap<>();
        for (int i = 0; i < 1000; i++) {
            map.put(new User("鄙人薛某" + i), i);
        }
    }

    static class User{

        private String name;

        public User(String name) {
            this.name = name;
        }

        @Override
        public int hashCode() {
            return 1;
        }
    }
}

我們設計了一個hashCode永遠爲1的類User,這樣一來存儲到HashMap的所有User對象都會存放到同一個“桶”裏,這樣一來查詢效率無疑會非常的低下,而這也是HashMap設計鏈表轉紅黑樹的原因,可以有效防止用戶自己實現了不好的哈希算法時導致鏈表過長的情況。

hash方法

說到哈希算法,我們再來擴充一個知識點,這也是我覺得HashMap中非常牛逼的設計之一。

在HashMap的源碼中,存儲對象hashCode的計算是由hash() 方法決定的,hash() 是HashMap 中的核心函數,在存儲數據時,將key傳入中進行運算,得出key的哈希值,通過這個哈希值運算才能獲取key應該放置在 “桶” 的哪個位置,下面是方法的源碼:

static final int hash(Object key) {
    int h;
    return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}

從代碼中可以看出,傳入key之後,hash() 會獲取key的hashCode進行無符號右移 16 位,然後進行按位異或,並把運算後的值返回,這個值就是key的哈希值。這樣運算是爲了減少碰撞衝突,因爲大部分元素的hashCode在低位是相同的,不做處理的話很容易造成衝突。

除了做16位位移的處理,在添加元素的方法中,HashMap還把該hash值與table.length - 1,也就是“桶”數組的大小做與運算,得到的結果就是對應的“桶”數組的下標,從而找到該元素所屬的鏈表。源碼裏這樣的:

// n的值是table.length
if ((p = tab[i = (n - 1) & hash]) == null)
    tab[i] = newNode(hash, key, value, null);

當查找不到對應的索引時,就會新建一個新的結點作爲鏈表的頭結點。那麼這裏爲什麼要用 i = (n - 1) & hash 作爲索引運算呢?

這其實是一種優化手段,由於數組的大小永遠是一個2次冪,在擴容之後,一個元素的新索引要麼是在原位置,要麼就是在原位置加上擴容前的容量。這個方法的巧妙之處全在於&運算,之前提到過&運算只會關注n – 1(n =數組長度)的有效位,當擴容之後,n的有效位相比之前會多增加一位(n會變成之前的二倍,所以確保數組長度永遠是2次冪很重要),然後只需要判斷hash在新增的有效位的位置是0還是1就可以算出新的索引位置,如果是0,那麼索引沒有發生變化,如果是1,索引就爲原索引加上擴容前的容量。

用一張效果圖來表示就是:

通過位運算,在每次擴容時都不用重新計算hash,省去了不少時間,而且新增有效位是0還是1是帶有隨機性的,之前兩個碰撞的Entry又有可能在擴容時再次均勻地散佈開,達到較好的分佈離散效果,不得不感嘆,設計功底真是太牛逼了,幾句看似簡單的代碼裏面居然包含了這麼多的學問。

爲什麼退化爲鏈表的閾值是6

上面說到,當鏈表長度達到閾值8的時候會轉爲紅黑樹,但是紅黑樹退化爲鏈表的閾值卻是6,爲什麼不是小於8就退化呢?比如說7的時候就退化,偏偏要小於或等於6?

主要是一個過渡,避免鏈表和紅黑樹之間頻繁的轉換。如果閾值是7的話,刪除一個元素紅黑樹就必須退化爲鏈表,增加一個元素就必須樹化,來回不斷的轉換結構無疑會降低性能,所以閾值纔不設置的那麼臨界。

最後

HashMap的知識點還有很多,這裏我也強烈大家去多看幾遍源碼,不光是爲了應付面試,也是對自己能如何更好的使用HashMap能有更清晰的認知,畢竟它實在是太常見了,用的不好很容易就產生bug。而且,我覺得JDK的源碼真的有很多值得我們開發者深入研究的地方,就比如這個HashMap,它的真實代碼量不算多,但非常的高效,最重要的是,它每個版本都在不停的優化,每一行代碼都是精雕細琢,看源碼的時候我也一直在心裏感嘆,我要是也能寫出那麼牛逼的代碼,那進阿里什麼的還算是事嗎?


我是鄙人薛某,一個不拘於技術的互聯網人,想看更多精彩文章可以關注我的公衆號,裏面不僅有技術,還有有趣的吹水文哦~~~


原創不易,看官們的【三連】將是我創作的最大動力,感謝各位的支持!

本文使用 mdnice 排版

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章