參考
一些Map的比較
- HashMap:它根據鍵的hashCode值存儲數據,大多數情況下可以直接定位到它的值,因而具有很快的訪問速度,但遍歷順序卻是不確定的。 HashMap最多隻允許一條記錄的鍵爲null,允許多條記錄的值爲null。HashMap非線程安全,即任一時刻可以有多個線程同時寫HashMap,可能會導致數據的不一致。如果需要滿足線程安全,可以用 Collections的synchronizedMap方法使HashMap具有線程安全的能力,或者使用ConcurrentHashMap。
- Hashtable:Hashtable是遺留類,很多映射的常用功能與HashMap類似,不同的是它承自Dictionary類,並且是線程安全的,任一時間只有一個線程能寫Hashtable,併發性不如ConcurrentHashMap,因爲ConcurrentHashMap引入了分段鎖。Hashtable不建議在新代碼中使用,不需要線程安全的場合可以用HashMap替換,需要線程安全的場合可以用ConcurrentHashMap替換。
- LinkedHashMap:LinkedHashMap是HashMap的一個子類,保存了記錄的插入順序,在用Iterator遍歷LinkedHashMap時,先得到的記錄肯定是先插入的,也可以在構造時帶參數,按照訪問次序排序。
- TreeMap:TreeMap實現SortedMap接口,能夠把它保存的記錄根據鍵排序,默認是按鍵值的升序排序,也可以指定排序的比較器,當用Iterator遍歷TreeMap時,得到的記錄是排過序的。如果使用排序的映射,建議使用TreeMap。在使用TreeMap時,key必須實現Comparable接口或者在構造TreeMap傳入自定義的Comparator,否則會在運行時拋出java.lang.ClassCastException類型的異常。
對於上述四種Map類型的類,要求映射中的key是不可變對象。不可變對象是該對象在創建後它的哈希值不會被改變。如果對象的哈希值發生變化,Map對象很可能就定位不到映射的位置了。
HashMap概覽
HashMap 底層的數據結構主要是:數組 + 鏈表 + 紅黑樹(JDK1.8增加了紅黑樹部分)。其中當鏈表的長度大於等於 8 時,鏈表會轉化成紅黑樹,當紅黑樹的大小小於等於 6 時,紅黑樹會轉化成鏈表,整體的數據結構如下:
圖中左邊豎着的是 HashMap 的數組結構,數組的元素可能是單個 Node,也可能是個鏈表,也可能是個紅黑樹,比如數組下標索引爲 2 的位置就是一個鏈表,下標索引爲 9 的位置對應的就是紅黑樹。
HashMap就是使用哈希表來存儲的。哈希表爲解決衝突,可以採用開放地址法和鏈地址法等來解決問題,Java中HashMap採用了鏈地址法。鏈地址法,簡單來說,就是數組加鏈表的結合。在每個數組元素上都一個鏈表結構,當數據被Hash後,得到數組下標,把數據放在對應下標元素的鏈表上。
變量概念
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4 :初始容量爲 16,它一定是2
static final int MAXIMUM_CAPACITY = 1 << 30 :最大容量 爲2一樣也一定是2
static final float DEFAULT_LOAD_FACTOR = 0.75f :負載因子默認值爲0.75
static final int TREEIFY_THRESHOLD = 8; 桶上的鏈表長度大於等於8時,鏈表轉化成紅黑樹
static final int UNTREEIFY_THRESHOLD = 6; 桶上的紅黑樹大小小於等於6時,紅黑樹轉化成鏈表
static final int MIN_TREEIFY_CAPACITY = 64; 當數組容量大於 64 時,鏈表纔會轉化成紅黑樹
transient int modCount :結構版本號,強調一點,內部結構發生變化指的是結構發生變化,例如put新鍵值對,但是某個key對應的value值被覆蓋不屬於結構變化。
transient int size; HashMap 的實際大小,可能不準(因爲當你拿到這個值的時候,可能又發生了變化)
int threshold; // 擴容的門檻,有兩種情況 // 如果初始化時,給定數組大小的話,通過 tableSizeFor 方法計算,數組大小永遠接近於 2 的冪次方,比如你給定初始化大小 19,實際上初始化大小爲 32,爲 2 的 5 次方。 // 如果是通過 resize 方法進行擴容,大小 = 數組容量 * 0.75
static class Node<K,V> implements Map.Entry<K,V> {} 鏈表的節點
static final class TreeNode<K,V> extends LinkedHashMap.Entry<K,V> {} 紅黑樹的節點
類介紹(註釋)
類註釋大致內容如下:
- 允許 key爲null、value 爲null ,實現了Map接口的所有方法。
- 它是
hash table
的Map接口實現版本,除了它是非線程安全的,其他與_Hashtable一致。_ - 它不保證元素順序
- get、put操作,時間複雜度是O(1)
- load factor(影響因子) 默認值是 0.75, 是均衡了時間和空間損耗的值,較高的值會減少空間開銷(擴容減少,數組大小增長速度變慢),但增加了查找成本(hash 衝突增加,鏈表長度變長),不擴容的條件:數組容量 > 需要的數組大小 /load factor;
- 如果有很多數據需要儲存到 HashMap 中,建議 HashMap 的容量一開始就設置成足夠的大小(儘量減少rehash的操作次數),這樣可以防止在其過程中不斷的擴容,影響性能;
- 在迭代過程中,如果 HashMap 的結構被修改(put、delete),會快速失敗。
- HashMap 是非線程安全的,我們可以自己在外部加鎖,或者通過
Collections#synchronizedMap
來創建HashMap實現線程安全,Collections#synchronizedMap
的實現是在每個方法上加上了 synchronized 鎖;
# 常用方法源碼 ### 哈希桶數組索引位置(hash) 用來計算key的hashcode,這裏的Hash算法本質上就是三步:**取key的hashCode值、高位運算、取模運算**。
static final int hash(Object key) {
int h;
return (key == null) ?
0 :
// key.hashCode()取hashCode值
// h ^ (h >>> 16) 高位參與運算
(h = key.hashCode()) ^ (h >>> 16);
}
//jdk1.7的源碼,jdk1.8沒有這個方法,但是實現原理一樣的
static int indexFor(int h, int length) {
return h & (length-1); //第三步 取模運算
}
對於任意給定的對象,只要它的hashCode()返回值相同,那麼程序調用方法一所計算得到的Hash碼值總是相同的。我們首先想到的就是把hash值對數組長度取模運算,這樣一來,元素的分佈相對來說是比較均勻的。但是,模運算的消耗還是比較大的,在HashMap中是這樣做的:調用方法二來計算該對象應該保存在table數組的哪個索引處。
這個方法非常巧妙,它通過h & (table.length -1)來得到該對象的保存位,而HashMap底層數組的長度總是2的n次方,這是HashMap在速度上的優化。當length總是2的n次方時,h& (length-1)運算等價於對length取模,也就是h%length,但是&比%具有更高的效率。
添加(put,jdk1.8)
public V put(K key, V value) {
// 對key進行hash操作後,調用putVal方法
return putVal(hash(key), key, value, false, true);
}
// 入參 hash:通過 hash 算法計算出來的值。
// 入參 hash:通過 hash 算法計算出來的值。
// 入參 onlyIfAbsent默認爲 false
// false 表示 key 存在時,會用新值覆蓋原來的值,
// 爲true時,表示只有在key 不存在時,纔會被放入map
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
// n 表示數組的長度,i 爲數組索引,p 爲 i 下標位置的 Node 值
Node<K,V>[] tab; Node<K,V> p; int n, i;
// 1.判斷鍵值對數組table[i]是否爲空或爲null,否則執行resize()進行擴容;
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
// 2.根據鍵值key計算hash值得到插入的數組索引i,如果table[i]==null,直接新建節點添加,轉向⑥,如果table[i]不爲空,轉向③;
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
// 3.判斷table[i]的首個元素是否和key一樣,如果相同直接覆蓋value,否則轉向④,這裏的相同指的是hashCode以及equals;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
// 4.判斷table[i] 是否爲treeNode,即table[i] 是否是紅黑樹,如果是,則直接在樹中插入鍵值對,否則轉向⑤;
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
// 5.可以確定,該表爲鏈表。遍歷table[i],
// 在紅黑樹中執行插入操作,否則進行鏈表的插入操作;遍歷過程中若發現key已經存在直接覆蓋value即可;
else {
for (int binCount = 0; ; ++binCount) {
// e = p.next 表示從頭開始,遍歷鏈表
// p.next == null 表明 p 是鏈表的尾節點
if ((e = p.next) == null) {
// 在尾部添加
p.next = newNode(hash, key, value, null);
// 判斷鏈表長度是否大於8,大於8的話把鏈表轉換爲紅黑樹,
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
// 找到相同的,不爲null的key,結束遍歷
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
// 往後移動
p = e;
}
}
// 找到新元素的映射索引位置
if (e != null) { // existing mapping for key
V oldValue = e.value;
// 當 onlyIfAbsent 爲 false 時,纔會覆蓋值
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
// 返回舊值
return oldValue;
}
}
// 變更 HashMap 的結構版本號
++modCount;
// 插入成功後,判斷實際存在的鍵值對數量size是否超多了最大容量threshold,如果超過,進行擴容。
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
從以上源碼中,我們可以瞭解到,在當鏈表長度 >= 8 時,此時的鏈表就會轉化成紅黑樹,轉化的方法是:treeifyBin,此方法有一個判斷,當鏈表長度>= 8,並且整個數組大小> 64 時,纔會轉成紅黑樹,當數組大小<64 時,只會觸發擴容,不會轉化成紅黑樹。
那麼,這個轉爲紅黑樹的閾值(MIN_TREEIFY_CAPACITY)爲什麼是8呢?
在HashMap源碼的143~198行,解釋了這個“8”的由來。中文翻譯過來大概的意思是:
鏈表查詢的時間複雜度是 O (n),紅黑樹的查詢複雜度是 O (log (n))。在鏈表數據不多的時候,使用鏈表進行遍歷也比較快,只有當鏈表數據比較多的時候,纔會轉化成紅黑樹,但紅黑樹需要的佔用空間是鏈表的 2 倍,考慮到轉化時間和空間損耗,所以我們需要定義出轉化的邊界值。
在考慮設計 8 這個值的時候,我們參考了泊松分佈概率函數,由泊松分佈中得出結論,鏈表各個長度的命中概率爲:
泊松分佈-wiki
* 0: 0.60653066
* 1: 0.30326533
* 2: 0.07581633
* 3: 0.01263606
* 4: 0.00157952
* 5: 0.00015795
* 6: 0.00001316
* 7: 0.00000094
* 8: 0.00000006
* more: less than 1 in ten million
意思是,鏈表的長度爲 8 的概率是 0.00000006,不到千萬分之一,所以說正常情況下,鏈表的長度不可能到達 8 ,而一旦到達 8 時,肯定是 hash 算法出了問題,所以在這種情況下,爲了讓 HashMap 仍然有較高的查詢性能,所以讓鏈表轉化成紅黑樹,我們正常寫代碼,使用 HashMap 時,幾乎不會碰到鏈表轉化成紅黑樹的情況,畢竟概率只有千萬分之一。
其實想要hash的更加徹底還有很多神奇的算法,比如redis的murmurHash或者DJB HASH算法,但是因爲性能差不多最後還是用了效率最高的^(異或 XOR)來解決問題
擴容(resize)
本方法分析參照美團技術團隊-Java 8系列之重新認識HashMap,可以直接查看原帖,原帖還講述了JDK1.8對擴容操作的優化、性能分析。
擴容是一個特別耗性能的操作,所以當程序員在使用HashMap的時候,估算map的大小,初始化的時候給一個大致的數值,避免map進行頻繁的擴容。
JDK1.8的resize方法,由於加入了紅黑樹的原因,較爲複雜,這裏先選取JDK1.7的resize方法。
void resize(int newCapacity) { //傳入新的容量
Entry[] oldTable = table; //引用擴容前的Entry數組
int oldCapacity = oldTable.length;
if (oldCapacity == MAXIMUM_CAPACITY) { //擴容前的數組大小如果已經達到最大(2^30)了
threshold = Integer.MAX_VALUE; //修改閾值爲int的最大值(2^31-1),這樣以後就不會擴容了
return;
}
Entry[] newTable = new Entry[newCapacity]; //初始化一個新的Entry數組
transfer(newTable); //!!將數據轉移到新的Entry數組裏
table = newTable; //HashMap的table屬性引用新的Entry數組
threshold = (int)(newCapacity * loadFactor);//更新擴容閾值
}
resize方法中,複製數據時,調用了transfer方法:
void transfer(Entry[] newTable) {
Entry[] src = table; //src引用了舊的Entry數組
int newCapacity = newTable.length;
for (int j = 0; j < src.length; j++) { //遍歷舊的Entry數組
Entry<K,V> e = src[j]; //取得舊Entry數組的每個元素
if (e != null) {
src[j] = null;//釋放舊Entry數組的對象引用(for循環後,舊的Entry數組不再引用任何對象)
do {
Entry<K,V> next = e.next;
int i = indexFor(e.hash, newCapacity); //!!重新計算每個元素在數組中的位置
// 先更新next 的指向;也就是使用了單鏈表的頭插入方式,同一位置上新元素總會被放在鏈表的頭部位置;
// 這樣先放在一個索引上的元素終會被放到Entry鏈的尾部(如果發生了hash衝突的話)
e.next = newTable[i];
newTable[i] = e; //將元素放在數組上
e = next; //訪問下一個Entry鏈上的元素
} while (e != null);
}
}
}
這裏在重新計算每個元素在數組中的位置時,與JDK1.8不同。
HashMap的線程安全
HashMap是線程不安全的,不要在併發的環境中同時操作HashMap,建議使用ConcurrentHashMap。
原因:在併發的場景中使用HashMap可能造成死循環(環形鏈表)。