死磕Java容器—HashSet

深入瞭解HashSet。

環境

  • eclipse 2019-03 (4.11.0)
  • jdk-12.0.1

eclipse中查看源碼的方法:按住Ctrl鍵,鼠標左鍵單擊代碼(更詳細請百度)。

容器:在Java中,“集合”有另外的用途,所以ArrayList、HashMap等皆稱爲容器類,其創建的一個對象就是一個容器。

簡介

HashSet是接口Set的一個實現類,故繼承了Set的重要特性“不接受重複元素”,HashSet還提供了最快的查詢速度。與HashSet,ArrayList等容器類比較,HashSet類中的方法實在是少得可憐。主要原因歸根於其數據存儲結構的實現是一個HashMap。

HashSet源碼分析

1、class聲明

public class HashSet<E>
    extends AbstractSet<E>
    implements Set<E>, Cloneable, java.io.Serializable{...}

源碼分析:HashSet繼承自AbstractSet,實現了接口Set,Cloneable以及Serializable。

與其他容器類一樣,HashSet在繼承了抽象類AbstractSet的同時又實現了Set,目的大概是爲了Class類的getInterfaces這個方法可以直接返回Set接口。

實現Cloneable接口(標識接口),該接口不包含任何方法,實現它僅僅是爲了指示可以使用Object類中的clone()方法來進行克隆。

實現Serializable接口(標識接口),該接口不包含任何方法,實現它表示該類可以進行序列化。該接口表示所有的非transient和非static字段都可以被序列化。如果要實現transient字段與static字段的序列化保存,必須聲明writeObject和readObject方法。

2、字段

private transient HashMap<E,Object> map;

private static final Object PRESENT = new Object();

源碼分析:

map:聲明爲HashMap<E,Object>,用於HashMap中存儲元素

PRESENT:指向Object對象,用於map中的value值(map中添加元素的時候要求key和value,其value均爲PRESENT)

3、構造方法

public HashSet() {
        map = new HashMap<>();
    }

public HashSet(Collection<? extends E> c) {
        map = new HashMap<>(Math.max((int) (c.size()/.75f) + 1, 16));
        addAll(c);
    }

public HashSet(int initialCapacity, float loadFactor) {
        map = new HashMap<>(initialCapacity, loadFactor);
    }

public HashSet(int initialCapacity) {
        map = new HashMap<>(initialCapacity);
    }

HashSet(int initialCapacity, float loadFactor, boolean dummy) {
        map = new LinkedHashMap<>(initialCapacity, loadFactor);
    }

源碼分析:HashSet中向客戶端提供了四個可訪問的構造方法,四個方法都是根據HashMap的構造器來設計的。

HashSet():無參構造器。直接調用HashMap中的無參構造器初始化map,默認大小16(實際可用16x0.75=12)。

HashSet(Collection<? extends E> c):根據已有的Collection容器對象創建新的HashMap對象。新的HashMap對象的容量最小爲16。

HashSet(int initialCapacity,float loadFactor):傳入創建HashMap對象時需要的初始容量initialCapacity和容量因子loadFactor。調用對應的HashMap構造器

HashSet(int initialCapacity):傳入創建HashMap對象時需要的初始容量initialCapacity,調用對應的HashMap構造器。容量因子爲默認值0.75f。

HashSet(int initialCapacity, float loadFactor, boolean dummy):該方法不向客戶端開放,創建一個LinkedHashMap對象,將map指向該對象。

4、添加元素add()

public boolean add(E e) {
        return map.put(e, PRESENT)==null;
    }

源碼分析:HashSet中添加元素add(E e)實際調用了HashMap中的put(e,PRESENT),其中e爲HashSet中要添加的元素也是HashMap中的key值,PRESENT則是HashMap中的value值(一個Object對象)。

5、刪除元素remove()

public boolean remove(Object o) {
        return map.remove(o)==PRESENT;
    }

源碼分析:HashSet中刪除元素remove(Object o)實際調用了HashMap中的remove(o),其中o是HashSet中要刪除的元素也是HashMap中的key值

6、size(),isEmpty(),contains(),clear(),clone()

public int size() {
        return map.size();
    }

public boolean isEmpty() {
        return map.isEmpty();
    }

public boolean contains(Object o) {
        return map.containsKey(o);
    }

public void clear() {
        map.clear();
    }

@SuppressWarnings("unchecked")
    public Object clone() {
        try {
            HashSet<E> newSet = (HashSet<E>) super.clone();
            newSet.map = (HashMap<E, Object>) map.clone();
            return newSet;
        } catch (CloneNotSupportedException e) {
            throw new InternalError(e);
        }
    }

源碼分析:size(),isEmpty(),contains(),clear()以及clone()內部實現都是調用的HashMap中的方法,唯一要注意的是contains(Object o)中調用的並不是HashMap中的contains(Object o)而是containsKey(Object o),原因很簡單,因爲HashSet中的元素實際上是HashMap中的key值。這也能說明爲什麼HashMap中有keySet()方法可以獲得所有的key值組成的Set集合了。

在clone()中有用到super.clone(),這裏的super.clone()指的是Object類中的clone(),在類Object中的clone()是一個本地方法。

7、itreator()

public Iterator<E> iterator() {
        return map.keySet().iterator();
    }

源碼分析:

iterator()直接調用了HashMap中的keySet()中獲得一個擁有所有key值的Set集合,接着調用Set實現類中的iterator()返回一個迭代器對象。

8、實現序列化

private void writeObject(java.io.ObjectOutputStream s)
        throws java.io.IOException {
        // Write out any hidden serialization magic
        s.defaultWriteObject();

        // Write out HashMap capacity and load factor
        s.writeInt(map.capacity());
        s.writeFloat(map.loadFactor());

        // Write out size
        s.writeInt(map.size());

        // Write out all elements in the proper order.
        for (E e : map.keySet())
            s.writeObject(e);
    }

    /**
     * Reconstitute the {@code HashSet} instance from a stream (that is,
     * deserialize it).
     */
    private void readObject(java.io.ObjectInputStream s)
        throws java.io.IOException, ClassNotFoundException {
        // Read in any hidden serialization magic
        s.defaultReadObject();

        // Read capacity and verify non-negative.
        int capacity = s.readInt();
        if (capacity < 0) {
            throw new InvalidObjectException("Illegal capacity: " +
                                             capacity);
        }

        // Read load factor and verify positive and non NaN.
        float loadFactor = s.readFloat();
        if (loadFactor <= 0 || Float.isNaN(loadFactor)) {
            throw new InvalidObjectException("Illegal load factor: " +
                                             loadFactor);
        }

        // Read size and verify non-negative.
        int size = s.readInt();
        if (size < 0) {
            throw new InvalidObjectException("Illegal size: " +
                                             size);
        }

        // Set the capacity according to the size and load factor ensuring that
        // the HashMap is at least 25% full but clamping to maximum capacity.
        capacity = (int) Math.min(size * Math.min(1 / loadFactor, 4.0f),
                HashMap.MAXIMUM_CAPACITY);

        // Constructing the backing map will lazily create an array when the first element is
        // added, so check it before construction. Call HashMap.tableSizeFor to compute the
        // actual allocation size. Check Map.Entry[].class since it's the nearest public type to
        // what is actually created.
        SharedSecrets.getJavaObjectInputStreamAccess()
                     .checkArray(s, Map.Entry[].class, HashMap.tableSizeFor(capacity));

        // Create backing HashMap
        map = (((HashSet<?>)this) instanceof LinkedHashSet ?
               new LinkedHashMap<>(capacity, loadFactor) :
               new HashMap<>(capacity, loadFactor));

        // Read in all elements in the proper order.
        for (int i=0; i<size; i++) {
            @SuppressWarnings("unchecked")
                E e = (E) s.readObject();
            map.put(e, PRESENT);
        }
    }

源碼分析:writeObject(java.io.ObjectOutputStream s)方法和readObject(java.io.ObjectInputStream s)方法是實現序列化的兩個重要方法,聲明這兩個方法的目的是爲了實現自己可控制的序列化

序列化時,ObjectOutputStream會採用反射查找Serializable實現類內部是否聲明瞭這兩個方法,若有,則調用該方法。否則將採用默認的序列化進程。

總結

  1. Set不保存重複元素,它具有與Collection完全一樣的接口,因此沒有任何額外的功能。
  2. Set是利用HashMap中的散列機制來存儲元素的,這樣可以保證元素的唯一性。
  3. HashSet存儲數據的結構就是一個HashMap對象,HashSet中要存儲的數據對應的就是HashMap中的key值,其HashMap中的value值均爲一個Object對象
  4. 因爲HashMap中並沒有對應的修改key和直接獲得key的方法,所以在HashSet中只有增加add()和刪除remove()而沒有修改和查看,唯一能查看元素的方法是直接獲得一個迭代器對象,遍歷獲得所有的元素值。
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章