-
内部常量
-
内部属性
-
内部类
-
构造方法
-
put方法流程
-
扩容原理
对于数组,如果已知下标i,那么查询一个元素就很快。但是如果不知道下标i,只知道元素的值,那么需要从头开始遍历数组,直到找到这个元素位置。
而有序表的查找,比如二分查找或插值查找,虽然提高了效率,但还是需要经过多次>、<比较才能找到结果。
那么有没有一种方法,可以直接通过关键字key来找到它在内存中的存储位置呢(即解决数组无法快速通过关键字key找到索引i的不足)?
首先我们引进一种新的技术,叫散列技术。散列技术是通过某个函数f,使得存储位置=f(关键字key)。
-
f称为散列函数(或哈希函数);
-
通过散列函数而得到的一块连续存储空间称为散列表(或哈希表);
-
关键字对应的存储位置称为散列地址;
散列技术既是一种存储方法,也是一种查找方法,存储和查找必须使用同一个散列函数。
-
不适合一对多的查找,如通过男性关键字查找班级所有的男生;
-
不适合范围查找;
-
直接定址法
-
数字分析法
-
平方取中法
-
折叠法
-
除留余数法(这种用的多)
-
随机数法
-
冲突:key1≠key2,但f(key1)=f(key2)
-
开放定址法:当冲突时,找到一个空白位置进行插入。又分为:线性探测(i+1,i+2,i+3,…)、二次探测(i+1^2,i+2^2,i+3^2,…。解决线性探测聚集现象)等;
-
再散列函数法:使用多种散列函数;
-
链地址法:又称为拉链法,HashMap就用的这种;
-
公共溢出区法:为所有冲突的关键字建立了个公共的溢出区来存放;
java.util.Map的实现类HashMap、Hashtable、LinkedHashMap、TreeMap、ConcurrentHashMap之间的关系?
HashMap与HashTable的区别?
-
HashMap线程不安全,Hashtable线程安全;
-
HashMap允许K/V都为null;后者K/V都不允许为null;
-
HashMap继承自AbstractMap类;而Hashtable继承自Dictionary类;
ConcurrentHashMap和Hashtable的区别?
-
ConcurrentHashMap结合了HashMap和HashTable二者的优势;
-
HashMap 没有考虑同步,HashTable 考虑了同步的问题;
-
但是HashTable 在每次同步执行时都要锁住整个结构,ConcurrentHashMap 锁的方式是稍微细粒度的;
同步集合与并发集合?
-
Collections.synchronizedMap()方法可以获取一个线程安全的map,称为同步集合,锁住整个方法(粗粒度);
-
ConcurrentHashMap 是并发集合,锁是细粒度的;
-
ConcurrentHashMap,它内部细分了若干个小的HashMap,称之为段(Segment)。默认情况下一个ConcurrentHashMap被进一步细分为16个段,既就是锁的并发度(分段锁);
-
不管是同步集合还是并发集合,都能保证线程安全,但建议使用并发集合;
LinkedHashMap按插入顺序存储,TreeMap可对键排序
大部分编程语言都有哈希表的实现,Java也不例外,HashMap就是典型代表。
Java7中HashMap的存储结构采用数组+单向链表,如图1所示;Java8中进一步优化,采用数组+单向链表+红黑树,如图2所示。
Entry数组也可以称它为哈希桶数组。
图1
图2
哈希桶数组越大越好吗?
-
如果哈希桶很大,即使较差的Hash算法也会比较分散;
-
如果哈希桶数组数组很小,即使好的Hash算法也会出现较多碰撞;
-
所以就需要在空间成本和时间成本之间权衡,根据实际情况确定哈希桶数组的大小,并在此基础上设计好的hash算法减少Hash碰撞。
为什么引入红黑树?
-
即使负载因子和Hash算法设计的再合理,也免不了会出现拉链过长的情况,一旦出现拉链过长,则会严重影响HashMap的性能。
-
于是,在JDK1.8版本中,对数据结构做了进一步的优化,引入了红黑树。当链表长度太长(默认超过8)时,链表就转换为红黑树,利用红黑树快速增删查的特点提高HashMap的性能。
-
源码剖析使用jdk1.8版本;
-
与红黑树相关的代码暂不剖析,如果讲红黑树就太复杂了,我后面单独写一篇文章作为专题来剖析;
// 默认的初始化容量,16
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;
// 默认的负载因子
static final float DEFAULT_LOAD_FACTOR = 0.75f;
// 最大容量
static final int MAXIMUM_CAPACITY = 1 << 30;
// 链表长度达到8时转化为红黑树
static final int TREEIFY_THRESHOLD = 8;
// 结点个数小于等于6时,红黑树退化为单链表
static final int UNTREEIFY_THRESHOLD = 6;
// 树的最小容量
static final int MIN_TREEIFY_CAPACITY = 64;
哈希桶数组的默认大小为16,默认负载因子为0.75,而扩容的阈值threshold=哈希桶数组大小*负载因子。
-
因为HashMap计算索引的方式是hash & (length-1),如果length为2的n次方,那么length-1的二进制码低位全为1。比如当length=16,那么15的二进制码为00001111,低4位全为1,那么&运算的结果取决于hash;相反地,如果length不为2的n次方,那么低位必有0,作&运算会导致该位恒为0,如图3所示。由于&运算的结果会作为数组索引,而低3位的&运算结果却恒为0,这样会造成数组空间的浪费。
-
扩容时,方便定位。假设扩容前容量为16,如果每次都扩容2倍的话,扩容后容量为32,假如现在一个hash值为50,那么扩容前的索引为2,扩容后的索引为18=16+2=原索引+原容量,之所以有这样一个公式得益于新容量是原容量的2倍(其实3的n次方也可以,但是2的n次方更加简单,大家可以细想一下为什么)。
图3
-
首先,哈希桶的容量一定要是2的n次方。整数最大值是2^31-1,那么2的31次方就超出范围了,所以是2的30次方。
为什么长度超过8转化为红黑树,而长度小于6时才退化为链表呢?
-
选择8的原因是,红黑树平均时间复杂度为logn,链表为n/2,当长度为8时,链表查找时间为4=8/2,红黑树为3=log8,因此设为8比较合适;
-
选择8和6的原因是,让其中间有个差值7,当我们的HashMap频繁地插入、删除元素,那么链表和红黑树两者可能就会频繁地转化,设一个差值7可以有效减少这种频繁的转化;
内部属性
// 哈希表
transient Node<K,V>[] table;
// Entry集合
transient Set<Map.Entry<K,V>> entrySet;
// 实际存储kv对的个数
transient int size;
// HashMap内部结构发生变化的次数
transient int modCount;
// 初始化数组容量,若threshold为0,则初始化数组容量为16
int threshold;
// 负载因子
final float loadFactor;
内部类
HashMap中有很多内部类,这里重点关注两个。分别是普通结点和红黑树结点,我只列举了它们的属性。
static class Node<K,V> implements Map.Entry<K,V> {
final int hash;
final K key;
V value;
Node<K,V> next;
}
static final class TreeNode<K,V> extends LinkedHashMap.Entry<K,V> {
TreeNode<K,V> parent;
TreeNode<K,V> left;
TreeNode<K,V> right;
TreeNode<K,V> prev;
boolean red;
}
HashMap一共有四个构造方法,如下图所示。
图4
-
int initialCapacity:初始容量
-
float loadFactor:负载因子
public HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR;
}
无参构造方法采用默认负载因子0.75,而初始化数组容量采用默认容量16,数组是在put方法的时候初始化的,这个下面会讲到。
而带参构造方法如下所示。
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " + loadFactor);
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);
}
public HashMap(int initialCapacity) {
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
-
如果我们使用了有参构造方法(图4中的第一个和第二个),即显式指定了初始化容量,tableSizeFor方法还会做一层处理。
-
假如我们设置初始化容量为18,即cap=18,那么tableSizeFor方法的返回值就是32,为什么呢?因为HashMap要求哈希桶数组大小必须为2的n次方,那么比18大的第一个2的n次方就是32。
-
放心,扩容的时候会将这个loadFactor给乘上的,下面你就会了解到。
想要剖析HashMap源码,那么put方法是最重要的切入点。从put方法切入,可以看到hash函数、扩容、解决冲突、链表转化为红黑树、红黑树退化为链表等重要功能的源码。
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
int h = key.hashCode();
h ^ (h >>> 16);
-
HashMap计算数组下标的方式,不是传统的%求余,而是采用hash & (length-1)。而在大多数情况下,哈希桶数组的大小都小于2^16,因此length-1的二进制码的前16位都是0,如果直接用hashCode的话,hashCode的高16位恒为0(注意是&运算),如此一来hashCode的高16位就参与不到计算中来。
-
因此将hashCode右移16位,再异或hashCode(&运算的结果偏向0、|运算的结果偏向1,^运算结果比较均匀),这样hashCode的低16位和高16位都能参与计算了。
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,boolean evict) {
Node<K,V>[] tab; // 哈希桶数组
Node<K,V> p; // 结点
int n; // 哈希桶数组长度
int i; //索引
// 如果哈希桶数组为null 或 长度为0
if ((tab = table) == null || (n = tab.length) == 0)
// 对哈希桶数组进行扩容
n = (tab = resize()).length;
// 标记1:通过i = (n - 1) & hash计算,得到索引为i的槽位为空
if ((p = tab[i = (n - 1) & hash]) == null)
// 则直接new一个Node,将其放入空槽位
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e;
K k;
// 要put的key 与 标记1中获取的对象p地址相同(是==判断的),那么equals一定相等,从而hashcode也一定相等
// 要put的key 与 标记1中获取的对象p equals相等
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
// 满足上述两个条件之一,则表明要put的key 与 标记1中获取的对象p是同一个对象
e = p;
// 表示该槽位是红黑树
else if (p instanceof TreeNode)
// 委托给putTreeVal方法,让它去处理红黑树结点的插入
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
// 表示该槽位是单链表,则在该单链表上顺序查找
for (int binCount = 0; ; ++binCount) {
// 代表在该单链表上没有找到相同的key
if ((e = p.next) == null) {
// 则直接在单链表的末尾插入新结点
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1)
// 超过了阈值,委托给treeifyBin方法将单链表转换为红黑树
treeifyBin(tab, hash);
break;
}
//代表在该单链表上找到了相同的key
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
// 如果成功插入了,则e为null,如果要插入的key已存在,则e为已存在的结点
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
//成功插入新结点后,需要记录modCount,且判断是否有必要进行扩容
++modCount;
if (++size > threshold)
// kv对个数超过阈值,则扩容
resize();
afterNodeInsertion(evict);
return null;
}
-
数组是无法自动扩容的,方法是使用一个新的数组代替已有的容量小的数组;
-
扩容是一个特别耗性能的操作,因此在使用HashMap的时候,估算map的大小,初始化的时候给一个大致的数值,避免map进行频繁的扩容;
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table; // 旧的哈希桶数组
int oldCap = (oldTab == null) ? 0 : oldTab.length; // 旧的容量
int oldThr = threshold; // 旧的阈值
int newCap = 0; // 新的容量
int newThr = 0; // 新的阈值
// 旧容量不为0时,出现这种情况,表示哈希表已经初始化
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
// 如果旧容量已经达到最大容量,则将阈值设为int的最大值,且不进行扩容
threshold = Integer.MAX_VALUE;
return oldTab;
}
// 旧容量>=默认容量 且 扩容后的新容量 < 最大容量,则容量和阈值都扩大两倍
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1;
}
// 标志1:阈值大于0时,新容量=阈值。出现这种情况是因为调用了有参构造方法,且是第一次put元素(即哈希表还未初始化)
else if (oldThr > 0)
newCap = oldThr;
// 当旧容量和旧阈值都是0时,进入此分支。出现这种情况是因为调用了无惨构造方法
else {
// 新容量设为默认容量
newCap = DEFAULT_INITIAL_CAPACITY;
// 新阈值就是默认容量*默认负载因子
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
// 出现这种情况,是因为走了上面标志1的代码
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; // new一个Node数组,长度为新容量大小
table = newTab; // 将引用指向新的哈希桶
// 旧哈希表不为null时,需要对旧哈希表上的元素向新哈希表做迁移;否则,不需要迁移,直接返回上一步new好的新哈希表
if (oldTab != null) {
// 遍历旧哈希桶
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e; // 旧哈希桶的元素
// 只将不为null的槽位 搬到 新的哈希桶数组中来
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
// 表示该槽位只有一个元素,则新位置为e.hash & (newCap - 1)
// 新位置与旧位置的关系:如果hash/旧容量=偶数,那么新位置与旧位置相同,否则不同
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
// 表示该槽位是红黑树结构
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else {
// 表示该槽位有多个元素,且是单链表结构
// java7在复制单链表时,是在while循环里面,单个计算好数组索引位置后,单个地插入新数组中,在多线程情况下,会有回环问题
// java8是等链表整个while循环结束后,才给新数组赋值,所以多线程情况下,也不会成环
// 老值表示,迁移后索引不变的元素;新值表示索引会变
// 举个例子,扩容前容量为16,扩容后容量为31,有两个元素,hash值分别为33,50,33在迁移前后的索引都为1,是老值;50在迁移前索引为2,迁移后索引为18=16+2,是新值
Node<K,V> loHead = null; // 老值头指针
Node<K,V> loTail = null; // 老值尾指针
Node<K,V> hiHead = null; // 新值头指针
Node<K,V> hiTail = null; // 新增尾指针
Node<K,V> next; // 槽位的下一个元素
do {
next = e.next;
// 通过该表达式可判断是老值还是新值,下面是老值
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
// 下面是新值
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
// 老值,新索引=原索引
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
// 新值,新索引=原索引+原容量
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
什么是Java7的HashMap单链表复制时的成环问题?
-
在Java7中,单链表的复制会出现成环问题,造成此问题的原因是java7在复制单链表时,是在while循环里面,单个计算好数组索引位置后,单个地插入新数组中,在多线程情况下,会有成环问题;
Java8如何解决成环问题?
-
Java8是等链表整个while循环结束后,才给新数组赋值。且新、老值的头指针都是局部变量,所以多线程情况下,也不会成环;
-
关于更多Java7成环问题的形成原因请看这篇文章:https://www.cnblogs.com/wen-he/p/11496050.html;
图5
上面的所有内容就是关于我对HashMap的理解,HashMap是面试的一个高频问点,如果大家有什么疑问,可以在文章下面留言,觉得写的不错的点个赞或者在看哟!
原文始发于微信公众号(初心JAVA):HashMap源码大剖析
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
文章由极客之家整理,本文链接:https://www.bmabk.com/index.php/post/35522.html