HashMap是java使用频率最高的集合类之一。本文将从重要知识点、主要方法源码分析、与其他集合的比较三个方面来探索JDK1.8版本的HashMap。本文目录如下
[TOC]
重要知识点
继承关系
1 | public class HashMap<K,V> extends AbstractMap<K,V>implements Map<K,V>, Cloneable, Serializable |
可以看到HashMap继承了AbstractMap实现了三个接口Map<K,V>, Cloneable, Serializable。我的理解是继承一个类是将HashMap分为map类,而实现接口是表明HashMap有可复制、可序列化的能力。
顺便说一句,不知道大家有没有想过为什么HashMap既然继承了AbstractMap为什么还要实现Map?并且AbstractMap也实现了Map? 我看的时候好奇就去网上搜了搜,据java集合框架的创始人Josh Bloch描述,这样的写法其实是一个失误。在java集合框架中,类似这样的写法很多。最开始写java集合框架的时候,他认为这样写,在某些地方可能是有价值的,直到他意识到错了。显然的,JDK的维护者,后来不认为这个小小的失误值得去修改。所以就这样存在下来了。stack overflow上的回答
重要参数
静态常量
1 | // 初始容量为2^4=16 |
重点解释一下负载因子,HashMap不是在容量等于size的时候才扩容,而是在快接近size时候就提前扩容。负载因子就是决定提前到多大。负载因子越大表示散列表的装填程度越高,反之越小。
它默认是0.75,也可以在构造函数里自定义。
负载因子越大,散列表的数据越密集,空间利用率越大,key也越容易冲突化为链表/红黑树,查找效率低;
负载因子越小,散列表的数据越稀疏,对空间的利用越浪费,但key也越不容易冲突,查找效率高。系统默认负载因子为0.75,一般情况下我们是无需修改的。
数据结构
HashMap是一个映射散列表,它存储的数据是键值对(key-value)。
JDK1.8前采用数组+链表/红黑树, Node<K,V>[] table数组中的每一个Node元素是一个链表的头结点。这样结合数组和链表的优点,查询效率是大O(1)。
构造函数如下:
1 | static class Node<K,V> implements Map.Entry<K,V> {{ |
位运算
HashMap的位运算可以说是老*猪带胸罩,一套接一套的。
第一套:扰动函数
HashMap不是直接使用key的hashcode,而是要做异或加工。目的是减少散列冲突,使元素能够更均匀的分布在数组中。
1 | static final int hash(Object key) { |
hashcode是一个int类型32位的数,h >>> 16即把hashcode的高16位向右移动到低16位。然后将hashCode的高16位和低16位异或,异或混合过后高16位的特征也掺杂进低16位,让数字的每一位都参加了散列运算当中。就像下面一样(h代表原本hashcode)
1 | h: 1111 1111 1111 1111 1111 0000 1110 1010 |
这样就混合了高位低位数据特征。此外,还有一个重要的原因,在后面使用(length - 1) & hash算下标时,因为length必然是2的次幂,length-1的二进制看起来就是一堆0后面跟着一个1(这个在下面第三套也会提到),如果不做扰动,高位的hashcode大部分情况都用不上。
第二套:key是如何hash出对应的数组下标?
hash出应的数组下标理所当然的做法就取余hashcode % length,但jdk用了更有效率的位操作(length - 1) & hash来代替取余操作。
第三套:为什么长度一定要是2的整次幂?
只有当数组长度是2的整次幂的时候,(length - 1) & hash才可以代替取余操作hash%length ,毕竟位运算比取余操作效率更高。当长度是2的整次幂时候,比如8的二进制是1000,肉眼看过去是“一个1后面跟着一堆0”,在减一后就变成了0111,肉眼看过去是”前面全是0后面全是1“。再和hash与运算出的结果不会超过数组长度,因为前面全是0,与的结果还是0。
比如长度如果是16,h是上面扰动函数算出的hashcode
1 | length-1: 0000 0000 0000 0000 0000 0000 0000 1111 |
假设有两个个key,他们的hashcode不同,分别为code1和code2code1和code2分别与“前面全是0后面全是1“二进制相与,结果一定不同。但是,如果code1和code2分别与一个“后面不一定是1“的二进制相与,结果有可能相同。
lazy_load
HashMap是延迟加载,即构造函数不负责初始化,而是由resize()扩容承担初始化的责任。
具体过程是:第一次调用put()方法判断数组是否为空,如果为空调用resize()扩容方法初始化后再put()。
1.7链表插入区别
HashMap在jdk1.7中采用头插入法,在扩容时会改变链表中元素原本的顺序,以至于在并发场景下导致链表成环的问题。
而在jdk1.8中采用尾插入法,在扩容时会保持链表元素原本的顺序,就不会出现链表成环的问题了。
重要方法源码分析
put()
put方法主要由putVal方法实现:
1 | final V putVal(int hash, K key, V value, boolean onlyIfAbsent, |
put()可能造成线程不安全的问题
- JDK8之前,并发put下可能造成死循环。原因是多线程下单链表的数据结构被破环,指向混乱,造成了链表成环。JDK 8中对HashMap做了大量优化,已经不存在这个问题。
- 并发put,有可能造成键值对的丢失,如果两个线程同时读取到当前node,在链表尾部插入,先插入的线程是无效的,会被后面的线程覆盖掉。
总结
- 判断HashMap有没有初始化,并赋值
- 如果没有产生hash冲突,直接在数组tab[i = (n - 1) & hash]处新建一个结点;
- 否则,发生了hash冲突,此时key如果和头结点的key相同,找到要更新的结点,直接跳到最后去更新值
- 否则,如果数组下标中的类型是TreeNode,就插入到红黑树中
- 如果只是普通的链表,就在链表中查找,找到key相同的结点就跳出,到最后去更新值;到链表尾也没有找到就在尾部插入一个新结点。
- 判断此时链表长度若大于8的话,还需要将链表转为红黑树(注意在要将链表转为红黑树之前,再进行一次判断,若数组容量小于64,则用resize扩容,放弃转为红黑树)
get()
get方法主要由getNode方法实现:
1 | final Node<K,V> getNode(int hash, Object key) { |
总结
- 如果在数组下标的链表头就找到key相同的,那么返回链表头的值
- 否则如果数组下标处的类型是TreeNode,就在红黑树中查找
- 否则就是在普通链表中查找了
- 都找不到就返回null
remove方法的流程大致和get方法类似。
resize()
扩容方法有这么一句newCap = oldCap << 1
说明是扩容后数组大小是原数组的两倍。
同时,该方法也承担了首次put值时,初始化数组的责任。
这个方法有点长,我将它分为三段分析。
下面三段在源码中是连在一起的一个方法,只是我这里为了逻辑清晰把它分开了。
第一段,准备好新数组,并做对数组的大小的进行判断,如果是初始化数组,基本工作在这一段就完成了。
1 | final Node<K,V>[] resize() { |
第二段,遍历原数组每一个结点,有三种情况:只有一个头结点、是红黑树、是链表。
1 | if (oldTab != null) { |
第三段,链表的复制比较复杂。
- 旧链表拆分成两个新链表。首先我们要明白,新数组的的长度是旧数组的两倍。也就是说旧数组的一个下标可以对应新数组的两个下标。比如就数组的下标是k,新数组的就对应k和k+oldCap两个下标。于是我们准备两个链表作为新数组的两个下标的结点,这里我叫这两个链表为A和B。
- 拆分的标准是e.hash & oldCap == 0。这句其实就是取e的hashcode在长度范围内的最高位,其实最高位不外乎两种情况,1和0。但是怎么能取到在长度范围内的最高位呢——把它和长度做与就可得到。比如长度是4,与上e的hashcode得最高位为1。
1 | hashcode:1111 1111 1111 1111 0000 1111 0001 0101 |
如果(e.hash & oldCap) 等于0,则该节点在新、旧数组的下标都是k。
如果(e.hash & oldCap) 不等于0,则该节点在新数组的下标是k+oldCap。
1 | //loHead指向lo链表的头,loTail指向lo链表尾 |
总结
- 如果数组未被初始化,就根据初始化值初始化数组
- 否则新生成一个长度是原来2倍的新数组,把所有元素复制到新数组
- 如果元素只有一个节点,复制到重新hash()计算的下标
- 如果是一个树节点,就对树进行复制
- 如果是链表,则新生成两个链表,一个挂在原下标位置,一个挂在原下标+原长度位置
其他相似的集合
与HashTable
一、是否允许为空。HashMap可以允许存在一个为null的key和任意个为null的value,但是HashTable中的key和value都不允许为null。
当HashMap遇到为null的key时,它会调用putForNullKey方法来进行处理。value如果为空则抛出NullPointerException()
1 | if (key == null) return putForNullKey(value); 而当HashTable遇到null时,他会直接抛出NullPointerException异常信息。 |
二、是否线程安全。Hashtable的方法是线程安全的,而HashMap的方法不是。
Hashtable的方法都是用synchronized修饰的,在修改数组时锁住整个Hashtable,这样的做法效率很低。
1 | public synchronized V put(K key, V value) {...} |
三、HashTable基于Dictionary类,而HashMap是基于AbstractMap。
四、HashTable直接调用hashcode,而HashMap会经过扰动函数, 而且用与位运算代替了取余。因此HashTable的长度不用是2的整次幂
与ConcurrentHashMap
JDK1.7基于分段锁,减少锁粒度。ConcurrentHashMap中的分段锁称为Segment,它继承了ReentrantLock,扮演锁的角色,它有着类似于HashMap的结构,即守护着一个HashEntry数组。
JDK1.8采用Node 数组+链表/红黑树的数据结构来实现,并发控制使用 synchronized 和 CAS 来操作。(JDK1.6以后 对 synchronized锁做了很多优化)t
get方法是不加锁的,因为get方法里的共享变量都定义成volatile类型,保证能被多线程的读,但只能被单线程的写。即使一个线程在读一个线程同时在写,根据happen before原则,对volatile字段的写入先于读操作,所以get总能拿到最新的值。这是用volatile替换锁的经典场景。
put方法会检查是否有Node节点,如果没有则在循环中使用CAS进行添加(链表的头节点),如果检査到内部正在扩容,就helpTransfer协助扩容。否则使用 synchronized锁住头元素(链表/红黑二叉树的头元素)添加元素。
扩容,让每个线程处理自己的区间。通过给每个线程分配桶区间,避免线程间的争用。而如果有新的线程想 put 数据时,也会帮助其扩容。无锁扩容的关键就是通过CAS设置sizeCtl与transferIndex变量,协调多个线程对table数组中的node进行迁移(transferIndex是指向剩余迁移结点的指针)。复制链表时同样会将链表拆成两份。