深入理解JDK7|深入理解JDK7 HashMap

在日常开发中,集合作为存储数据的容器,被广泛使用在程序代码中,本文将从JDK集合类代表HashMap出发,着重理解HashMap底层实现。
一、Map家族关系图 在正式讨论HashMap之前,我们有必要把Map家族的继承实现关系展示出来,方便理解后续的内容。

深入理解JDK7|深入理解JDK7 HashMap
文章图片
Map家族关系图
上图很详细地展示了Map家族中各个成员之间的继承或者实现关系。Map接口是双列集合的顶层父接口,该集合中每个元素都是键值对key-value,成对出现。双列集合中,一个键一定只找到对应的一个值,键不能重复,但是值可以重复。Map集合常用的实现类有HashMap、LinkedHashMap、HashTable,TreeMap。
  • HashMap
    HashMap的底层是哈希表+链表结构,与HashSet相似,只是数据的存储形式不同,HashMap可以使用null作为key或value,是线程不安全的,但是效率相对较高。当给HashMap中存放自定义对象时,如果自定义对象作为key存在,这时要保证对象唯一,必须重写对象的类的hashCode和equals方法。
  • HashTable
    HashTable与HashMap之间的关系完全类似于Vector和Arraylist的关系。HashTable是线程安全的,但是效率相对较低,Hashtable不允许使用null作为key和value。
  • LinkedHashMap
    LinkedHashMap是HashMap的子类,其底层是哈希表+链表结构,其关系与HashSet和LinkedHashSet类似,使用链表来维护key-value的次序,可以记住键值对的插入顺序。
  • TreeMap
    TreeMap存储key-value键值对时,需要根据key对节点进行排序。TreeMap可以保证所有的key-value对处于有序状态。也有两种排序方式:
    自然排序:TreeMap的所有key必须实现Comparable接口,而且所有的key应该是同一个类的对象,否则抛出ClassCastException异常。
    定制排序:创建TreeMap时,传入一个Comparator对象,该对象负责对TreeMap中的所有key进行排序。不需要Map的key实现Comparable接口。
    本文主要介绍Java7中HashMap的底层实现原理,其他的Map集合,读者可以自行翻阅其他资料进行学习。
二、JDK7中HashMap底层原理 2.1 HashMap在JDK7中的结构 HashMap在JDK7或者JDK8中采用的基本存储结构都是数组+链表形式。本节主要是研究HashMap在JDK7中的底层实现,其基本结构图如下所示:

深入理解JDK7|深入理解JDK7 HashMap
文章图片
JDK7 HashMap存储结构图
上图中左边橙色区域是哈希表,右边蓝色区域为链表,链表中的元素类型为Entry,它包含四个属性分别是:
  • K key
  • V value
  • int hash
  • Entry next
那么为什么会出现数组+链表形式的存储结构呢?这里简单地阐述一下,后续将以源码的形式详细介绍。
我们在使用HashMap.put("Key", "Value")方法存储数据的时候,底层实际是将key和value以Entry的形式存储到哈希表中,哈希表是一个数组,那么它是如何将一个Entry对象存储到数组中呢?是如何确定当前key和value组成的Entry该存到数组的哪个位置上,换句话说是如何确定Entry对象在数组中的索引的呢?通常情况下,我们在确定数组的时候,都是在数组中挨个存储数据,直到数组全满,然后考虑数组的扩容,而HashMap并不是这么操作的。在Java及大多数面向对象的编程语言中,每个对象都有一个整型变量hashcode,这个hashcode是一个很重要的标识,它标识着不同的对象,有了这个hashcode,那么就很容易确定Entry对象的下标索引了,在Java语言中,可以理解hashcode转化为数组下标是按照数组长度取模运算的,基本公式如下所示:
int index = HashCode(key) % Array.length

实际上,在JDK中哈希函数并没有直接采取取模运算,而是利用了位运算的方式来提高性能,在这里我们理解为简单的取模运算。
我们知道了对Key进行哈希运算然后对数组长度进行取模就可以得到当前Entry对象在数组中的下标,那么我们可以一直调用HashMap的put方法持续存储数据到数组中。但是存在一种现象,那就是根据不同的Key计算出来的结果有可能会完全相同,这种现象叫作“哈希冲突”。既然出现了哈希冲突,那么发生冲突的这个数据该如何存储呢?哈希冲突其实是无法避免的一个事实,既然无法避免,那么就应该想办法来解决这个问题,目前常用的方法主要是两种,一种是开放寻址法,另外一种是链表法。
开放寻址法是原理比较简单,就是在数组里面“另谋高就”,尝试寻找下一个空档位置。而链表法则不是寻找下一个空档位置,而是继续在当前冲突的地方存储,与现有的数据组成链表,以链表的形式进行存储。HashMap的存储形式是数组+链表就是采用的链表法来解决哈希冲突问题的。具体的详细说明请继续往下看。
在日常开发中,开发者对于HashMap使用的最多的就是它的构造方法、put方法以及get方法了,下面就开始详细地从这三个方法出发,深入理解HashMap的实现原理。
2.2 深入理解HashMap的构造方法 我们打开IDE查看HashMap的源码,首先得了解一下HashMap的一些成员属性,它的主要属性如下图所示:

深入理解JDK7|深入理解JDK7 HashMap
文章图片
HashMap成员属性 这里对上面的属性进行简单地介绍:
  1. 第一个属性是默认的初始化容量,表示哈希表的默认长度,当我们在创建HashMap对象的时候未指定容量时,默认的容量就是16。这里多说一句,当我们知道我们的Key-Value对的个数的时候(一般是个数大于16),我们在创建HashMap对象的时候最好就指定容量大小,且一般情况是指定大于Key-Value对的个数且最靠近Key-Value对的个数的2的次幂,比如,我们需要在HashMap中存储27个K-V对,那么大于27且最靠近27的2的次幂就是32,那么我们在创建HashMap对象的时候就可以指定容量为32,这么做的目的就是为了减少HashMap内哈希表的扩容次数,减少不必要的性能损耗。
  2. 第二个属性是哈希表的最大容量。
  3. 第三个属性默认的负载因子,也就是我们在创建HashMap对象的时候没有指定负载因子,那么就使用这个负载因子,它是哈希表扩容的一个重要参数,当HashMap中存储的K-V对的个数大于等于哈希表容量乘以这个负载因子(size >= capacity * DEFAULT_LOAD_FACTOR)的时候,将触发扩容,且扩容为原容量的两倍。举个例子,当我们创建HashMap对象未指定哈希表容量的时候,也就是使用默认的16,当调用HashMap对象的put方法存储数据的时候,当存储的数量为16*0.75f=12的时候,将触发扩容机制,此时哈希表容量将扩充为32,这也就是在上面第一个属性描述的时候为什么多说一句的原因了。
  4. 第四个属性是空的哈希表。
  5. 第五个属性是后续操作的哈希表。
  6. 第六个属性是HashMap中存储的K-V组合的个数。
  7. 第七个属性是扩容阈值,当size >= threshold的时候(实际还需满足有链表的条件),将触发哈希表的扩容机制,threshold = capcity * loadFactor
  8. 第八个属性是是自定义负载因子,当没有指定负载因子的时候,loadFactor = 0.75f
  9. 第九个属性是记录了map新增/删除K-V对,或者内部结构做了调整的次数。其主要作用,是对Map的遍历操作做一致性校验,如果在iterator操作的过程中,map的数值有修改,直接抛出ConcurrentModificationException异常。
  10. 第十个属性表示对字符串键的HashMap应用代替哈希函数时,Map内元素个数的默认阈值,目的是为了减少哈希碰撞的概率。
在JDK7中,HashMap有四个构造方法,分别是:
// 该构造方法是第二第三构造方法的底层实现,该构造方法对初始化容量和负载因子进行了一个校验 // 然后将传入的负载因子复制给了loadFactor成员变量 // 将初始化容量赋值给了扩容阈值(扩容临界数值) public HashMap(int initialCapacity, float loadFactor) { if (initialCapacity < 0) throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity); if (initialCapacity > MAXIMUM_CAPACITY) initialCapacity = MAXIMUM_CAPACITY; if (loadFactor <= 0 || Float.isNaN(loadFactor)) throw new IllegalArgumentException("Illegal load factor: " + loadFactor); this.loadFactor = loadFactor; threshold = initialCapacity; init(); }// 指定容量来创建HashMap对象,该变量initialCapacity不一定是初始化哈希表的长度 public HashMap(int initialCapacity) { this(initialCapacity, DEFAULT_LOAD_FACTOR); }// 使用默认的容量16和默认的负载因子0.75f来创建HashMap对象 public HashMap() { this(DEFAULT_INITIAL_CAPACITY, DEFAULT_LOAD_FACTOR); }// 传入一个Map将其转化为HashMap public HashMap(Map m) { // 创建一个HashMap this(Math.max((int) (m.size() / DEFAULT_LOAD_FACTOR) + 1, DEFAULT_INITIAL_CAPACITY), DEFAULT_LOAD_FACTOR); // 初始化HashMap,重点方法,后面详细介绍 inflateTable(threshold); // 将Map转化为HashMap的具体实现 putAllForCreate(m); }

我们一起看看前三个构造方法,第二个第三个构造方法都是调用的第一个构造方法,这三个构造方法很简单,但是第一个构造方法有一点需要注意,那就是构造方法将初始化容量initialCapacity的值赋值给了扩容阈值threshold,这就给我们带来一个疑问,一开始我们都知道一个等式关系:threshold=capacity*loadFactor,难道默认情况下,我们使用HashMap的无参构造方法,扩容阈值和默认容量一样,都是16?难道第一次扩容是size=16才开始吗?这个疑问我们先放一放,稍后在put方法中你就知道到底是怎么回事了。我们先研究一下第四个构造方法,第四个构造方法是将一个Map转换成HashMap,一共三行代码:
第一行代码创建了一个HashMap对象,设置了threshold值和loadFactor值。
第二行代码是初始化HashMap,第三行是将Map转换成HashMap的具体实现。
一起来看看第二行代码内部实现:
private void inflateTable(int toSize) { // 计算大于toSize的且最接近toSize的2的N次幂 // 比如toSize=27,那么大于27且最接近27的2的N次幂是32,N=5 int capacity = roundUpToPowerOf2(toSize); // 这里重新计算了threshold,由代码可知,threshold = capacity * loadFactor threshold = (int) Math.min(capacity * loadFactor, MAXIMUM_CAPACITY + 1); // 初始化了哈希表(桶数组) table = new Entry[capacity]; initHashSeedAsNeeded(capacity); }private static int roundUpToPowerOf2(int number) { // assert number >= 0 : "number must be non-negative"; return number >= MAXIMUM_CAPACITY ? MAXIMUM_CAPACITY : (number > 1) ? Integer.highestOneBit((number - 1) << 1) : 1; }

从第四个构造方法可知,转化过程中,暂时将确定的一个数组容量值赋值给threshold暂存,在初始化数组之前,计算出最合适的capacity(大于threshold且最接近threshold的2的N次幂),然后再计算出真正的扩容阈值threshold(threshold = capacity * loadFactor),然后在创建Entry数组(桶数组)。这里其实也对上面疑问进行了一个解答,其实我们在使用HashMap的无参构造创建HashMap对象的时候,并没有初始化Entry数组,那么是何时初始化Entry数组的呢?那是在第一次调用put方法的时候,后续,我们会一起深入理解HashMap的put方法。接下来,我们继续看putAllForCreate方法。
// 这就是将指定Map转换为HashMap的方法,循环遍历,主要看下面的putForCreate方法 private void putAllForCreate(Map m) { for (Map.Entry e : m.entrySet()) putForCreate(e.getKey(), e.getValue()); }private void putForCreate(K key, V value) { // 计算hash值,如果key==null,那么hash值为0 int hash = null == key ? 0 : hash(key); // 利用hash值和哈希表长度计算当前k-v应在数组的索引下标 int i = indexFor(hash, table.length); // 由于table[i]处可能不止有一个元素(多个会形成一个链表),因此,此处写这样一个循环遍历链表 // 当key存在的时候,直接将key的值设置为新值 for (Entry e = table[i]; e != null; e = e.next) { Object k; if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) { e.value = https://www.it610.com/article/value; return; } }// 当key在当前数组和所有链表中不存在的时候,就在table的指定位置创建一个Entry createEntry(hash, key, value, i); }void createEntry(int hash, K key, V value, int bucketIndex) { // 获取当前数组的Entry链表头节点,并赋值给Entry e Entry e = table[bucketIndex]; // 创建一个新的Entry节点对象,并作为新的头节点,将老的头节点赋值给新头节点的next属性 // 这一点很重要,可以看Entry的构造方法,这表明了JDK7是头节点插入链表 table[bucketIndex] = new Entry<>(hash, key, value, e); // Entry对象数量+1 size++; }

上面的代码分析很重要,对后续的put方法研究很有帮助,从上面的代码分析可知,我们从源码级别了解到JDK7中的链表新增的新成员是插入头节点的。
2.3 深入理解HashMap的put方法 【深入理解JDK7|深入理解JDK7 HashMap】对于HashMap,我们平常使用最多的就是put方法了,从上面的源码分析可知,在创建HashMap对象后,并没有初始化哈希表,也就是HashMap的成员属性Entry[] table = (Entry[]) EMPTY_TABLE = {},那这个哈希表是何时开辟空间的?答案很明显,那就是第一次使用put方法的时候。
public V put(K key, V value) { // 首先判断哈希表table是否是空表,第一次put的时候,必然是空表,那么就进行初始化 // 如果我们使用的是HashMap的无参构造方法创建的对象,那么threshold就是16, // 上面已经分析过inflateTable方法了,它主要是计算了最合适的capacity=16,threshold=12 // 并创建了一个新的Entry[16]赋值给了table,也就是开辟了内存空间 // 从第二次put开始,table就不再是空数组了 if (table == EMPTY_TABLE) { inflateTable(threshold); } // 判断key是否为null,如果为null,那么就执行存储key为null的逻辑,后续分析putForNullKey方法 if (key == null) return putForNullKey(value); // 计算key的hash值 int hash = hash(key); // 根据hash值和哈希表长度来计算当前K-V在哈希表中的索引下标 int i = indexFor(hash, table.length); // 找到下标之后,获取当前下标对应的是否有Entry对象,如果有,那么就遍历这个链表 // 判断链表中是否已经包含当前key了,如果包含,那么就将key对应的值替换成新值,并返回旧值 for (Entry e = table[i]; e != null; e = e.next) { Object k; if (e.hash == hash && ((k = e.key) == key || key.equals(k))) { V oldValue = https://www.it610.com/article/e.value; e.value = value; e.recordAccess(this); return oldValue; } } // 能运行到这一步,说明上述链表不存在或者链表中没有对应的key // 那么就需要添加新的Entry对象到指定的索引位置i上 // 记住这里也是头节点插入 modCount++; // 新增Entry,不仅新增,而且还担任了扩容的担子,后续详细分析 addEntry(hash, key, value, i); // 新增Entry对象,返回null return null; }

上面对put方法进行了解析,接下来我们深入理解一下putForNullKey方法和addEntry方法,首先我们一起理解一下putForNullKey方法,代码如下:
private V putForNullKey(V value) { for (Entry e = table[0]; e != null; e = e.next) { if (e.key == null) { V oldValue = https://www.it610.com/article/e.value; e.value = value; e.recordAccess(this); return oldValue; } } modCount++; addEntry(0, null, value, 0); return null; }

该方法是对key为null的特殊处理的方法,在HashMap设计的时候,就规定了哈希表第一个位置,也就是下标为0的位置,只存放key=null的Entry对象,这也就合理解释了HashMap可以存储key为null的K-V对,且最多只存储一个key为null的Entry对象。
接下来一起看看addEntry方法,该方法不仅担任了添加Entry对象任务,还担任了扩容的任务。
void addEntry(int hash, K key, V value, int bucketIndex) { // 扩容的条件:1. size >= threshold // 2. null != table[bucketIndex] // 两个条件同时满足才会进行扩容 if ((size >= threshold) && (null != table[bucketIndex])) { // 扩容为原来容量的两倍,具体代码后续分析 resize(2 * table.length); // 重新计算当前要新增的K-V对在新的哈希表中的索引位置 hash = (null != key) ? hash(key) : 0; bucketIndex = indexFor(hash, table.length); }// 创建Entry对象,并插入到指定位置的头节点 createEntry(hash, key, value, bucketIndex); }

上面的两处代码分析可以得出一个结论:
扩容的条件必须满足size >= thresholdnull != table[bucketIndex],看到很多资料说只要size >= threshold就会触发扩容机制,这是不对的。看条件就知道,size >= threshold中的等于号一定会满足,只要一直执行put方法,那么一定就会有等于的时候,那么为啥还需要大于号呢?按照错误的想法,岂不是大于号是多此一举?其实不然,扩容要满足两个条件,如果put方法在put第threshold个K-V对的时候,但是存放Entry对象的数组bucketIndex处并没有链表,那么也不会扩容,也就是说,put第threshold个K-V对且发生哈希冲突才会扩容。引申一点,当put键为null的K-V对的时候,永远不会发生扩容,因为它要么发生Value的替换,那么是一个Entry对象的插入,不会涉及到哈希冲突。
进一步总结如下:
  • 扩容条件必须同时满足size >= thresholdnull != table[bucketIndex]
  • put键为null的K-V对的时候永远不会发生扩容
2.4 深入理解HashMap的扩容机制 从上面小节的分析可知,扩容的条件为:
  • 扩容条件必须同时满足size >= thresholdnull != table[bucketIndex]
  • put键为null的K-V对的时候永远不会发生扩容
我们查看resize方法的具体实现来理解HashMap的扩容机制,代码如下:
void resize(int newCapacity) { Entry[] oldTable = table; int oldCapacity = oldTable.length; // 如果老数组的容量达到了最大,那么就将threshold设置为最大值,且不会再发生扩容 if (oldCapacity == MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return; }// 创建一个新的哈希表,容量是原来哈希表的两倍,也就是newCapacity = 2 * oldCapacity Entry[] newTable = new Entry[newCapacity]; // 将重新计算所有Entry对象的下标,并重新排列各个Entry对象的位置,稍后分析transfer方法实现 transfer(newTable, initHashSeedAsNeeded(newCapacity)); table = newTable; // 重新计算新的扩容阈值threshold threshold = (int)Math.min(newCapacity * loadFactor, MAXIMUM_CAPACITY + 1); }

扩容很简单,就是将哈希表的长度变成原来的两倍,但是这仅仅是第一步,后面还需要对原有的数据进行迁移,使原有数据更加均匀地散列在哈希表中。数据迁移的具体操作由方法transfer来提供。
void transfer(Entry[] newTable, boolean rehash) { int newCapacity = newTable.length; // 遍历老的table,遍历到每一个bucket的时候,都会将bucket上链表的节点都遍历一遍 for (Entry e : table) { while(null != e) { Entry next = e.next; // 重新计算hash if (rehash) { e.hash = null == e.key ? 0 : hash(e.key); } // 重新计算下标 int i = indexFor(e.hash, newCapacity); // 头节点插入链表 e.next = newTable[i]; newTable[i] = e; // 继续原链表的下一个节点 e = next; } } }

这就基本完成了对HashMap的put方法的研究,其实研究起来并不是很难理解,耐下心来阅读一下源码,肯定会有很大收获。
2.5 深入理解HashMap的get方法 接下来我们继续来阅读get方法,相对于put方法,get方法实现起来就简单很多,理解起来也不是很困难,基本原理就是计算key的hash值,然后计算当前key在哈希表中的索引位置,然后在遍历链表,逐个比对,最后返回结果。
public V get(Object key) { // 首先判断key是否为null,如果为null,那么直接获取哈希表的下标为0的位置的Entry对象 if (key == null) return getForNullKey(); // 当key != null,命中到哈希表中的某个下标位置后,遍历链表来获取key相同的entry对象 Entry entry = getEntry(key); // 处理结果并返回,如果找到就返回对应的值,如果没有匹配到直接返回null return null == entry ? null : entry.getValue(); }// 处理key = null的值问题 private V getForNullKey() { if (size == 0) { return null; } // 返回哈希表中下标为0的Entry对象并处理返回结果 for (Entry e = table[0]; e != null; e = e.next) { if (e.key == null) return e.value; } return null; }// 遍历链表匹配到相同key的Entry对象并返回该Entry对象的value值 final Entry getEntry(Object key) { if (size == 0) { return null; }int hash = (key == null) ? 0 : hash(key); for (Entry e = table[indexFor(hash, table.length)]; e != null; e = e.next) { Object k; if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) return e; } return null; }

getEntry方法是遍历链表来获取与当前key相同的Entry对象,判断key是否存在的标准是:
e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))
节点的key和目标key的hash值肯定是相等的,&&右边的条件,即节点的key与目标key的相等,要么内存地址相等,要么逻辑上相等,两者有一个满足即可。
假设get方法传入的key值计算的下标为1,HashMap的get方法的基本示意图如下所示:

深入理解JDK7|深入理解JDK7 HashMap
文章图片
HashMap的get方法示意图
2.6 HashMap put、get方法流程图 这里提供一个HashMap的put方法存储数据的流程图供读者参考:

深入理解JDK7|深入理解JDK7 HashMap
文章图片
HashMap的put方法存储数据的流程图 这里提供一个HashMap的get方法存储数据的流程图供读者参考:

深入理解JDK7|深入理解JDK7 HashMap
文章图片
HashMap的get方法存储数据的流程图 上面中get流程图画得稍微比正常的要复杂一些,只是为了描述流程更加清晰。
2.7 常见的HashMap的迭代方式 在实际开发过程中,我们对于HashMap的迭代遍历也是常见的操作,HashMap的迭代遍历常用方式有如下几种:
  • 方式一:迭代器模式
Map map = new HashMap<>(16); Iterator iterator = map.entrySet().iterator(); while (iterator.hasNext()) { Map.Entry next = iterator.next(); System.out.println(next.getKey() + ":" + next.getValue()); }

  • 方式二:遍历Set>方式
Map map = new HashMap<>(16); for (Map.Entry entry : map.entrySet()) { System.out.println(entry.getKey() + ":" + entry.getValue()); }

  • 方式三:forEach方式(JDK8特性,lambda)
Map map = new HashMap<>(16); map.forEach((key, value) -> System.out.println(key + ":" + value));

  • 方式四:keySet方式
Map map = new HashMap<>(16); Iterator keyIterator = map.keySet().iterator(); while (keyIterator.hasNext()) { String key = keyIterator.next(); System.out.println(key + ":" + map.get(key)); }

把这四种方式进行比较,前三种其实属于同一种,都是迭代器遍历方式,如果要同时使用到key和value,推荐使用前三种方式,如果仅仅使用到key,那么推荐使用第四种。
三、总结 本文着重讲解了JDK7中HashMap的具体实现原理,包括put、get、扩容等内部实现机制,相信读者仔细品读以后,对JDK7中的HashMap的实现会有一个清晰地认识,JDK7中的HashMap的实现原理属于经典实现,不管JDK7是否已经再被使用,但是其基本原理还是值得学习!后续将继续讲解JDK8中的HashMap实现原理,届时将对比JDK7,帮助读者掌握两者之间的共性和差异!

    推荐阅读