- HashMap 键值对集合是我们在程序开发中经常使用到的一种集合,在各种框架中间件中更是使用广泛。
- 首先HashMap 实现了Map接口,是一个非线程安全的键值对集合。由于其高效的存取速度而使用广泛。如果没有Hash冲突那么其存取时间复杂度为O(1),在jdk1.8 中Hash冲突的解决方案是链表法,如果链表长度大于8且集合长度超过64 则采用红黑树存储。
- 那么我们就从源代码来看一看是如何实现高效存取?如何解决冲突?如何扩容?
-
// 这里继承了AbstractMap 实现了map cloneeable Serializable 序列化接口 public class HashMap<K,V> extends AbstractMap<K,V> implements Map<K,V>, Cloneable, Serializable { // 默认的初始化长度 ,通过左位移操作其值为16 。为何不直接写成数字16呢? // The default initial capacity - MUST be a power of two. 原因可能就是在这里 必须是2的幂次方。 // 这里2的幂次方原因在于为了使其存储元素更好的散列在hash桶上。其实也方便了计算 static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16 // 负载因子0.75 ,用于扩容计算。 static final float DEFAULT_LOAD_FACTOR = 0.75f; // 是否用红黑树来存储的最小长度 static final int MIN_TREEIFY_CAPACITY = 64; // 是否用红黑树来存储的链表最小长度 static final int TREEIFY_THRESHOLD = 8; // 用于存储元素的node节点数组。 transient Node<K,V>[] table; // 节点存储的属性 hash码,key value 还有指向下一个节点的next引用地址。 static class Node<K,V> implements Map.Entry<K,V> { final int hash; final K key; V value; Node<K,V> next; } // 接下来我们来看一下关键的put方法 public V put(K key, V value) { return putVal(hash(key), key, value, false, true); } //获取key的hash码,这里可以看到如果key为null,则hash码为0,则说明如果key为null,则存放位置是hash桶的第一个位置。 不为null这里进行了一个hash码位移与和hash码无符号右移16的值。为了更好的散列效果。 static final int hash(Object key) { int h; return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16); } final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { Node<K,V>[] tab; Node<K,V> p; int n, i; // 如果table为null,或者其长度为0 if ((tab = table) == null || (n = tab.length) == 0) // 调用resize 进行初始化操作,那么这里可以看到 真正的分配存储空间实在map集合第一次调用put 方法的时候,这也是一种惰性分配策略,即使用的时候才真正分配空间。 n = (tab = resize()).length; // 这里进行查找存放位置 (n - 1) & hash 通过总长度减一和key的hash码进行位移与的操作获取存放位置,位移与计算快于取模运算,这里也是相当于一个hash码对总长度的取模运算,不高位移与效率更高。 if ((p = tab[i = (n - 1) & hash]) == null) //如果存放位置没有元素,则构建一个node节点赋值给当前找到的位置。 tab[i] = newNode(hash, key, value, null); else { Node<K,V> e; K k; // 如果查找到的位置已经存在键值对,那么比较key 。先比较hash码是否相等。 // == 比较key,key b不为null则继续比较equals。相等那么会覆盖原来的值。 // 这里就可以得到重写key的equals方法和hash方法。如果只重写其中一个则会导致问题。 // 比如重写了equals,没有重写hash,那么HashMap里就会存储重复的key,. // if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) e = p; // 如果key不相等,那么判断p节点是否是树节点。 else if (p instanceof TreeNode) //树节点的存入方法。 e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); else { //循环找到当前位置链表的尾节点,然后插入。 for (int binCount = 0; ; ++binCount) { if ((e = p.next) == null) { // 找到尾节点,则尾节点的next指向新构建的节点。 p.next = newNode(hash, key, value, null); //如果大于等于7,则链表存储该为树存储。 if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st treeifyBin(tab, hash); //退出循环 break; } // 如果在链表中找到和要插入的key相同的key,则退出循环 if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) break; p = e; } } //在链表中找到和要插入的key相同的key,则用新的值覆盖原来的值 if (e != null) { // existing mapping for key V oldValue = e.value; if (!onlyIfAbsent || oldValue == null) e.value = value; afterNodeAccess(e); //返回原来节点的值 return oldValue; } } // ++modCount; // 判断是否需要扩容 if (++size > threshold) resize(); //这个是一个空方法,留待扩展或者子类扩展,插入完成的一些操作。 afterNodeInsertion(evict); return null; } // 如果是初始化,则会构建一个大小为16的node节点数组,阈值为12.返回table数组。 final Node<K,V>[] resize() { // 初始化这里oldTab 等于null. Node<K,V>[] oldTab = table; int oldCap = (oldTab == null) ? 0 : oldTab.length; int oldThr = threshold; int newCap, newThr = 0; if (oldCap > 0) { if (oldCap >= MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return oldTab; } else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY) newThr = oldThr << 1; // double threshold } else if (oldThr > 0) // initial capacity was placed in threshold newCap = oldThr; else { // zero initial threshold signifies using defaults newCap = DEFAULT_INITIAL_CAPACITY; newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); } if (newThr == 0) { float ft = (float)newCap * loadFactor; newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? (int)ft : Integer.MAX_VALUE); } threshold = newThr; @SuppressWarnings({"rawtypes","unchecked"}) Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; table = newTab; //oldTab 为null,则不必从原来的数组重新分配到新的数组,这里可以看到迁移原来数组的数据到新的hash桶即node节点数组是一个很耗时的操作,所以在平常使用到HashMap集合的时候最好预估其大小,避免空间浪费和扩容引起的性能消耗。 if (oldTab != null) { for (int j = 0; j < oldCap; ++j) { Node<K,V> e; if ((e = oldTab[j]) != null) { oldTab[j] = null; if (e.next == null) newTab[e.hash & (newCap - 1)] = e; else if (e instanceof TreeNode) ((TreeNode<K,V>)e).split(this, newTab, j, oldCap); else { // preserve order Node<K,V> loHead = null, loTail = null; Node<K,V> hiHead = null, hiTail = null; Node<K,V> next; do { next = e.next; if ((e.hash & oldCap) == 0) { if (loTail == null) loHead = e; else loTail.next = e; loTail = e; } else { if (hiTail == null) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null); if (loTail != null) { loTail.next = null; newTab[j] = loHead; } if (hiTail != null) { hiTail.next = null; newTab[j + oldCap] = hiHead; } } } } } return newTab; } }
- 通过上述的源码分析我们可以看到: HashMap 底层是一个hash桶用来存储键值对。即node节点的数组table.
- 由于扩容时构建了新的table数组,需要重新hash将原来的元素迁移存放到新的数组中,所以多线程访问下是不安全的。
- 当然put 也不安全。多线程情况下建议采用的是ConcurrentHashMap,采用分段锁的方法大大提高了并发访问的效率。
- 扩容采用的是复制算法,即构建新的数组。原来数组的元素重新计算放到新的数组中,开销较大。
jdk1.8源码分析之HashMap
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.