死磕Java容器—HashSet

深入了解HashSet。

环境

  • eclipse 2019-03 (4.11.0)
  • jdk-12.0.1

eclipse中查看源码的方法:按住Ctrl键,鼠标左键单击代码(更详细请百度)。

容器:在Java中,“集合”有另外的用途,所以ArrayList、HashMap等皆称为容器类,其创建的一个对象就是一个容器。

简介

HashSet是接口Set的一个实现类,故继承了Set的重要特性“不接受重复元素”,HashSet还提供了最快的查询速度。与HashSet,ArrayList等容器类比较,HashSet类中的方法实在是少得可怜。主要原因归根于其数据存储结构的实现是一个HashMap。

HashSet源码分析

1、class声明

public class HashSet<E>
    extends AbstractSet<E>
    implements Set<E>, Cloneable, java.io.Serializable{...}

源码分析:HashSet继承自AbstractSet,实现了接口Set,Cloneable以及Serializable。

与其他容器类一样,HashSet在继承了抽象类AbstractSet的同时又实现了Set,目的大概是为了Class类的getInterfaces这个方法可以直接返回Set接口。

实现Cloneable接口(标识接口),该接口不包含任何方法,实现它仅仅是为了指示可以使用Object类中的clone()方法来进行克隆。

实现Serializable接口(标识接口),该接口不包含任何方法,实现它表示该类可以进行序列化。该接口表示所有的非transient和非static字段都可以被序列化。如果要实现transient字段与static字段的序列化保存,必须声明writeObject和readObject方法。

2、字段

private transient HashMap<E,Object> map;

private static final Object PRESENT = new Object();

源码分析:

map:声明为HashMap<E,Object>,用于HashMap中存储元素

PRESENT:指向Object对象,用于map中的value值(map中添加元素的时候要求key和value,其value均为PRESENT)

3、构造方法

public HashSet() {
        map = new HashMap<>();
    }

public HashSet(Collection<? extends E> c) {
        map = new HashMap<>(Math.max((int) (c.size()/.75f) + 1, 16));
        addAll(c);
    }

public HashSet(int initialCapacity, float loadFactor) {
        map = new HashMap<>(initialCapacity, loadFactor);
    }

public HashSet(int initialCapacity) {
        map = new HashMap<>(initialCapacity);
    }

HashSet(int initialCapacity, float loadFactor, boolean dummy) {
        map = new LinkedHashMap<>(initialCapacity, loadFactor);
    }

源码分析:HashSet中向客户端提供了四个可访问的构造方法,四个方法都是根据HashMap的构造器来设计的。

HashSet():无参构造器。直接调用HashMap中的无参构造器初始化map,默认大小16(实际可用16x0.75=12)。

HashSet(Collection<? extends E> c):根据已有的Collection容器对象创建新的HashMap对象。新的HashMap对象的容量最小为16。

HashSet(int initialCapacity,float loadFactor):传入创建HashMap对象时需要的初始容量initialCapacity和容量因子loadFactor。调用对应的HashMap构造器

HashSet(int initialCapacity):传入创建HashMap对象时需要的初始容量initialCapacity,调用对应的HashMap构造器。容量因子为默认值0.75f。

HashSet(int initialCapacity, float loadFactor, boolean dummy):该方法不向客户端开放,创建一个LinkedHashMap对象,将map指向该对象。

4、添加元素add()

public boolean add(E e) {
        return map.put(e, PRESENT)==null;
    }

源码分析:HashSet中添加元素add(E e)实际调用了HashMap中的put(e,PRESENT),其中e为HashSet中要添加的元素也是HashMap中的key值,PRESENT则是HashMap中的value值(一个Object对象)。

5、删除元素remove()

public boolean remove(Object o) {
        return map.remove(o)==PRESENT;
    }

源码分析:HashSet中删除元素remove(Object o)实际调用了HashMap中的remove(o),其中o是HashSet中要删除的元素也是HashMap中的key值

6、size(),isEmpty(),contains(),clear(),clone()

public int size() {
        return map.size();
    }

public boolean isEmpty() {
        return map.isEmpty();
    }

public boolean contains(Object o) {
        return map.containsKey(o);
    }

public void clear() {
        map.clear();
    }

@SuppressWarnings("unchecked")
    public Object clone() {
        try {
            HashSet<E> newSet = (HashSet<E>) super.clone();
            newSet.map = (HashMap<E, Object>) map.clone();
            return newSet;
        } catch (CloneNotSupportedException e) {
            throw new InternalError(e);
        }
    }

源码分析:size(),isEmpty(),contains(),clear()以及clone()内部实现都是调用的HashMap中的方法,唯一要注意的是contains(Object o)中调用的并不是HashMap中的contains(Object o)而是containsKey(Object o),原因很简单,因为HashSet中的元素实际上是HashMap中的key值。这也能说明为什么HashMap中有keySet()方法可以获得所有的key值组成的Set集合了。

在clone()中有用到super.clone(),这里的super.clone()指的是Object类中的clone(),在类Object中的clone()是一个本地方法。

7、itreator()

public Iterator<E> iterator() {
        return map.keySet().iterator();
    }

源码分析:

iterator()直接调用了HashMap中的keySet()中获得一个拥有所有key值的Set集合,接着调用Set实现类中的iterator()返回一个迭代器对象。

8、实现序列化

private void writeObject(java.io.ObjectOutputStream s)
        throws java.io.IOException {
        // Write out any hidden serialization magic
        s.defaultWriteObject();

        // Write out HashMap capacity and load factor
        s.writeInt(map.capacity());
        s.writeFloat(map.loadFactor());

        // Write out size
        s.writeInt(map.size());

        // Write out all elements in the proper order.
        for (E e : map.keySet())
            s.writeObject(e);
    }

    /**
     * Reconstitute the {@code HashSet} instance from a stream (that is,
     * deserialize it).
     */
    private void readObject(java.io.ObjectInputStream s)
        throws java.io.IOException, ClassNotFoundException {
        // Read in any hidden serialization magic
        s.defaultReadObject();

        // Read capacity and verify non-negative.
        int capacity = s.readInt();
        if (capacity < 0) {
            throw new InvalidObjectException("Illegal capacity: " +
                                             capacity);
        }

        // Read load factor and verify positive and non NaN.
        float loadFactor = s.readFloat();
        if (loadFactor <= 0 || Float.isNaN(loadFactor)) {
            throw new InvalidObjectException("Illegal load factor: " +
                                             loadFactor);
        }

        // Read size and verify non-negative.
        int size = s.readInt();
        if (size < 0) {
            throw new InvalidObjectException("Illegal size: " +
                                             size);
        }

        // Set the capacity according to the size and load factor ensuring that
        // the HashMap is at least 25% full but clamping to maximum capacity.
        capacity = (int) Math.min(size * Math.min(1 / loadFactor, 4.0f),
                HashMap.MAXIMUM_CAPACITY);

        // Constructing the backing map will lazily create an array when the first element is
        // added, so check it before construction. Call HashMap.tableSizeFor to compute the
        // actual allocation size. Check Map.Entry[].class since it's the nearest public type to
        // what is actually created.
        SharedSecrets.getJavaObjectInputStreamAccess()
                     .checkArray(s, Map.Entry[].class, HashMap.tableSizeFor(capacity));

        // Create backing HashMap
        map = (((HashSet<?>)this) instanceof LinkedHashSet ?
               new LinkedHashMap<>(capacity, loadFactor) :
               new HashMap<>(capacity, loadFactor));

        // Read in all elements in the proper order.
        for (int i=0; i<size; i++) {
            @SuppressWarnings("unchecked")
                E e = (E) s.readObject();
            map.put(e, PRESENT);
        }
    }

源码分析:writeObject(java.io.ObjectOutputStream s)方法和readObject(java.io.ObjectInputStream s)方法是实现序列化的两个重要方法,声明这两个方法的目的是为了实现自己可控制的序列化

序列化时,ObjectOutputStream会采用反射查找Serializable实现类内部是否声明了这两个方法,若有,则调用该方法。否则将采用默认的序列化进程。

总结

  1. Set不保存重复元素,它具有与Collection完全一样的接口,因此没有任何额外的功能。
  2. Set是利用HashMap中的散列机制来存储元素的,这样可以保证元素的唯一性。
  3. HashSet存储数据的结构就是一个HashMap对象,HashSet中要存储的数据对应的就是HashMap中的key值,其HashMap中的value值均为一个Object对象
  4. 因为HashMap中并没有对应的修改key和直接获得key的方法,所以在HashSet中只有增加add()和删除remove()而没有修改和查看,唯一能查看元素的方法是直接获得一个迭代器对象,遍历获得所有的元素值。
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章