jdk1.8源码分析之HashMap

  • HashMap 键值对集合是我们在程序开发中经常使用到的一种集合,在各种框架中间件中更是使用广泛。
  • 首先HashMap 实现了Map接口,是一个非线程安全的键值对集合。由于其高效的存取速度而使用广泛。如果没有Hash冲突那么其存取时间复杂度为O(1),在jdk1.8 中Hash冲突的解决方案是链表法,如果链表长度大于8且集合长度超过64 则采用红黑树存储。
  • 那么我们就从源代码来看一看是如何实现高效存取?如何解决冲突?如何扩容?
  •  // 这里继承了AbstractMap 实现了map cloneeable Serializable  序列化接口
    public class HashMap<K,V> extends AbstractMap<K,V>
        implements Map<K,V>, Cloneable, Serializable {
            
            // 默认的初始化长度 ,通过左位移操作其值为16 。为何不直接写成数字16呢?
    // The default initial capacity - MUST be a power of two.  原因可能就是在这里 必须是2的幂次方。
    // 这里2的幂次方原因在于为了使其存储元素更好的散列在hash桶上。其实也方便了计算
             static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
                // 负载因子0.75 ,用于扩容计算。
               static final float DEFAULT_LOAD_FACTOR = 0.75f;
        // 是否用红黑树来存储的最小长度 
     static final int MIN_TREEIFY_CAPACITY = 64;
    // 是否用红黑树来存储的链表最小长度 
       static final int TREEIFY_THRESHOLD = 8;
                // 用于存储元素的node节点数组。
            transient Node<K,V>[] table;
    
            // 节点存储的属性 hash码,key value  还有指向下一个节点的next引用地址。
          static class Node<K,V> implements Map.Entry<K,V> {
            final int hash;
            final K key;
            V value;
            Node<K,V> next;
    }
    
            
        //    接下来我们来看一下关键的put方法
    
          public V put(K key, V value) {
            return putVal(hash(key), key, value, false, true);
        }
    //获取key的hash码,这里可以看到如果key为null,则hash码为0,则说明如果key为null,则存放位置是hash桶的第一个位置。 不为null这里进行了一个hash码位移与和hash码无符号右移16的值。为了更好的散列效果。
     static final int hash(Object key) {
            int h;
            return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
        }
    
      final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                       boolean evict) {
            Node<K,V>[] tab;
             Node<K,V> p; 
                int n, i;
            // 如果table为null,或者其长度为0
            if ((tab = table) == null || (n = tab.length) == 0)
                // 调用resize 进行初始化操作,那么这里可以看到 真正的分配存储空间实在map集合第一次调用put 方法的时候,这也是一种惰性分配策略,即使用的时候才真正分配空间。
                n = (tab = resize()).length;
            // 这里进行查找存放位置  (n - 1) & hash 通过总长度减一和key的hash码进行位移与的操作获取存放位置,位移与计算快于取模运算,这里也是相当于一个hash码对总长度的取模运算,不高位移与效率更高。
            if ((p = tab[i = (n - 1) & hash]) == null)
    //如果存放位置没有元素,则构建一个node节点赋值给当前找到的位置。
                tab[i] = newNode(hash, key, value, null);
            else {
                Node<K,V> e; K k;
                // 如果查找到的位置已经存在键值对,那么比较key 。先比较hash码是否相等。
                // == 比较key,key b不为null则继续比较equals。相等那么会覆盖原来的值。
                // 这里就可以得到重写key的equals方法和hash方法。如果只重写其中一个则会导致问题。
                // 比如重写了equals,没有重写hash,那么HashMap里就会存储重复的key,.
                // 
                if (p.hash == hash &&
                    ((k = p.key) == key || (key != null && key.equals(k))))
                    e = p;
                // 如果key不相等,那么判断p节点是否是树节点。
                else if (p instanceof TreeNode)
                    //树节点的存入方法。
                    e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
                else {
                    //循环找到当前位置链表的尾节点,然后插入。
                    for (int binCount = 0; ; ++binCount) {
                        if ((e = p.next) == null) {
                            // 找到尾节点,则尾节点的next指向新构建的节点。
                            p.next = newNode(hash, key, value, null);
                            //如果大于等于7,则链表存储该为树存储。
                            if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                                treeifyBin(tab, hash);
                            //退出循环
                            break;
                        }
                        // 如果在链表中找到和要插入的key相同的key,则退出循环
                        if (e.hash == hash &&
                            ((k = e.key) == key || (key != null && key.equals(k))))
                            break;
                        p = e;
                    }
                }
                //在链表中找到和要插入的key相同的key,则用新的值覆盖原来的值
                if (e != null) { // existing mapping for key
                    V oldValue = e.value;
                    if (!onlyIfAbsent || oldValue == null)
                        e.value = value;
                    afterNodeAccess(e);
                    //返回原来节点的值
                    return oldValue;
                }
            }
            //
            ++modCount;
            // 判断是否需要扩容
            if (++size > threshold)
                resize();
            //这个是一个空方法,留待扩展或者子类扩展,插入完成的一些操作。
            afterNodeInsertion(evict);
            return null;
        }
    
            // 如果是初始化,则会构建一个大小为16的node节点数组,阈值为12.返回table数组。
    final Node<K,V>[] resize() {
        // 初始化这里oldTab  等于null.
            Node<K,V>[] oldTab = table;
            int oldCap = (oldTab == null) ? 0 : oldTab.length;
            int oldThr = threshold;
            int newCap, newThr = 0;
            if (oldCap > 0) {
                if (oldCap >= MAXIMUM_CAPACITY) {
                    threshold = Integer.MAX_VALUE;
                    return oldTab;
                }
                else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                         oldCap >= DEFAULT_INITIAL_CAPACITY)
                    newThr = oldThr << 1; // double threshold
            }
            else if (oldThr > 0) // initial capacity was placed in threshold
                newCap = oldThr;
            else {               // zero initial threshold signifies using defaults
                newCap = DEFAULT_INITIAL_CAPACITY;
                newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
            }
            if (newThr == 0) {
                float ft = (float)newCap * loadFactor;
                newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                          (int)ft : Integer.MAX_VALUE);
            }
            threshold = newThr;
            @SuppressWarnings({"rawtypes","unchecked"})
                Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
            table = newTab;
    //oldTab  为null,则不必从原来的数组重新分配到新的数组,这里可以看到迁移原来数组的数据到新的hash桶即node节点数组是一个很耗时的操作,所以在平常使用到HashMap集合的时候最好预估其大小,避免空间浪费和扩容引起的性能消耗。
            if (oldTab != null) {
                for (int j = 0; j < oldCap; ++j) {
                    Node<K,V> e;
                    if ((e = oldTab[j]) != null) {
                        oldTab[j] = null;
                        if (e.next == null)
                            newTab[e.hash & (newCap - 1)] = e;
                        else if (e instanceof TreeNode)
                            ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                        else { // preserve order
                            Node<K,V> loHead = null, loTail = null;
                            Node<K,V> hiHead = null, hiTail = null;
                            Node<K,V> next;
                            do {
                                next = e.next;
                                if ((e.hash & oldCap) == 0) {
                                    if (loTail == null)
                                        loHead = e;
                                    else
                                        loTail.next = e;
                                    loTail = e;
                                }
                                else {
                                    if (hiTail == null)
                                        hiHead = e;
                                    else
                                        hiTail.next = e;
                                    hiTail = e;
                                }
                            } while ((e = next) != null);
                            if (loTail != null) {
                                loTail.next = null;
                                newTab[j] = loHead;
                            }
                            if (hiTail != null) {
                                hiTail.next = null;
                                newTab[j + oldCap] = hiHead;
                            }
                        }
                    }
                }
            }
            return newTab;
        }
    
    
    }

     

  • 通过上述的源码分析我们可以看到: HashMap 底层是一个hash桶用来存储键值对。即node节点的数组table.
  • 由于扩容时构建了新的table数组,需要重新hash将原来的元素迁移存放到新的数组中,所以多线程访问下是不安全的。
  • 当然put 也不安全。多线程情况下建议采用的是ConcurrentHashMap,采用分段锁的方法大大提高了并发访问的效率。
  • 扩容采用的是复制算法,即构建新的数组。原来数组的元素重新计算放到新的数组中,开销较大。
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章