集合源码分析(四)HashMap实现
HashMap是常用的Java集合之一,是基于哈希表的Map接口的实现。与HashTable主要区别为不支持同步和允许null作为key和value。由于HashMap不是线程安全的,如果想要线程安全,可以使用ConcurrentHashMap代替。
HashMap的底层是哈希数组,数组元素为Entry。HashMap通过key的hashCode来计算hash值,当hashCode相同时,通过“拉链法”解决冲突。jdk1.8在解决哈希冲突时有了较大的变化,当链表长度大于阈值(默认为8)时,将链表转化为红黑树,以减少搜索时间。原本Map.Entry接口的实现类Entry改名为了Node。转化为红黑树时改用另一种实现TreeNode。
HashMap就是这样一个Entry(包括Node和TreeNode)数组,Node对象中包含键、值和hash值,next指向下一个Entry,用来处理哈希冲突。TreeNode对象包含指向父节点、子节点和前一个节点(移除对象时使用)的指针,以及表示红黑节点的boolean标识
HashMap的非线程安全问题解决方案:
HashMap:线程不安全
HashTable:锁住整张hash表,让线程独占,使用synchronized针对整张hash表,每次锁住整张表线程独占,安全的背后是巨大浪费
ConcurrentHashMap:提供了很好的并发性,多个读操作几乎可以并发执行,是锁段(默认吧hash表分为16个段),在put和get,remove等操作中,ConcurrentHashMap只锁定当前使用需要用到的段,只有在求size的时候才锁定整张hash表
Q:如何解决HashMap的线程安全问题?(JDK1.7)
HashMap底层是一个Entry数组,当发生hash冲突的时候,HashMap是采用链表的方式来解决的,在对应的数组位置存放链表的头结点。对链表而言,新加入的节点会从头结点加入。javadoc中有一段关于HashMap的描述:
此实现不是同步的。如果多个线程同时访问一个哈希映射,而其中至少一个线程从结构上修改了该映射,则它必须保持外部同步。(结构上的修改是指添加或删除一个或多个映射关系的任何操作;仅改变与实例已经包含的键关联的值不是结构上的修改。)这一般通过对自然封装该映射的对象进行同步操作来完成。如果不存在这样的对象,则应该使用 Collections.synchronizedMap 方法来“包装”该映射。最好在创建时完成这一操作,以防止对映射进行意外的非同步访问,如下所示:
Map m = Collections.synchronizedMap(new HashMap(...));
Q: HashMap什么时候进行扩容?
当HashMap中的元素个数超过数组大小(数组总大小length,不是数组中个数size)*loadFactor时,就会进行数组扩容,loadFactor的默认值为0.75,这是一个折中的取值。也就是说,默认情况下,数组大小为16,那么当HashMap中元素个数超过16*0.75=12(这个值就是代码中的threshold值,也叫做临界值)的时候,就把数组的大小扩展为 2*16=32,即扩大一倍,然后重新计算每个元素在数组中的位置,而这是一个非常消耗性能的操作,所以如果我们已经预知HashMap中元素的个数,那么预设元素的个数能够有效的提高HashMap的性能。
Fail-Fast机制:
java.util.HashMap不是线程安全的,如果在使用迭代器的过程中有其他线程修改了 map,将抛出 ConcurrentModificationException,这就是所谓 fail-fast策略。
这一策略在源码中的实现是通过modCount 域,modCount 顾名思义就是修改次数,对HashMap 内容的修改都将增加这个值,那么在迭代器初始化过程中会将这个值赋给迭代器的 expectedModCount。
HashIterator() {
expectedModCount = modCount;
if (size > 0) { // advance to first entry
Entry[] t = table;
while (index < t.length && (next = t[index++]) == null)
;
}
}
在迭代过程中,判断modCount 跟expectedModCount 是否相等,如果不相等就表示已经有其他线程修改了Map:
注意到modCount 声明为volatile,保证线程之间修改的可见性。
final Entry<K,V> nextEntry() {
if (modCount != expectedModCount)
throw new ConcurrentModificationException();
在 HashMap 的 API中指出:
由所有 HashMap 类的“collection 视图方法”所返回的迭代器都是快速失败的:在迭代器创建之后,如果从结构上对映射进行修改,除非通过迭代器本身的 remove 方法,其他任何时间任何方式的修改,迭代器都将抛出 ConcurrentModificationException。因此,面对并发的修改,迭代器很快就会完全失败,而不冒在将来不确定的时间发生任意不确定行为的风险。 注意,迭代器的快速失败行为不能得到保证,一般来说,存在非同步的并发修改时,不可能作出任何坚决的保证。快速失败迭代器尽最大努力抛出 ConcurrentModificationException。因此,编写依赖于此异常的程序的做法是错误的,正确做法是:迭代器的快速失败行为应该仅用于检测程序错误。
HashMap底层是一个链表散列(即数组和链表的结合体)
1、对比HashMap在Java8和Java7的源码实现:
2、结合源码在Java7中是如何解决hash冲突的以及优缺点,结合源码。
3、在JDK7和JDK8中如何解决hash冲突,balance tree相关源码介绍。
解决hash冲突的办法:
开放定址法(线性探测再散列,二次探测再散列,伪随机探测再散列)
再哈希法
链地址法
建立一个公共溢出区
Java7中hashmap解决方案是采用的链地址法。
HashMap的原理介绍
HashMap是一个散列表,它存储的内容是键值对(key-value)映射。
//Node是单向链表,它实现了Map.Entry接口【table数组中的封装元素】
static class Node<K,V> implements Map.Entry<K,V> {
final int hash;
final K key;
V value;
Node<K,V> next;
Node(int hash, K key, V value, Node<K,V> next) {
this.hash = hash;
this.key = key;
this.value = value;
this.next = next;
}
public final K getKey() { return key; }
public final V getValue() { return value; }
public final String toString() { return key + "=" + value; }
public final int hashCode() {
return Objects.hashCode(key) ^ Objects.hashCode(value);
}
public final V setValue(V newValue) {
V oldValue = value;
value = newValue;
return oldValue;
}
public final boolean equals(Object o) {
if (o == this)
return true;
if (o instanceof Map.Entry) {
Map.Entry<?,?> e = (Map.Entry<?,?>)o;
if (Objects.equals(key, e.getKey()) &&
Objects.equals(value, e.getValue()))
return true;
}
return false;
}
}
Java 7 中HashMap的源码分析
构造方法:
构造函数中,根据初始化的Capacity与loadFactor(加载因子)初始化HashMap.
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0) throw new IllegalArgumentException("Illegal initial capacity: " +initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor)) throw new IllegalArgumentException("Illegal load factor: " +loadFactor);
this.loadFactor = loadFactor; // 保存加载因子
threshold = initialCapacity; // 保存初始容量
init(); // 调用初始化方法进行初始化
}
HashMap性能相关两个参数:初始容量(initialCapacity) 和加载因子(loadFactor)。
容量:哈希表中桶的数量,初始容量只是哈希表在创建时的容量。(初始容量为16)
加载因子:哈希表在其容量自动增加之前可以达到多满的一种尺度。当哈希表中的条目数超出了加载因子与当前容量的乘积时,则要对该哈希表进行 rehash 操作(即重建内部数据结构),从而哈希表将具有大约两倍的桶数。(加载因子为0.75)
负载因子衡量的是一个散列表的空间的使用程度,负载因子越大表示散列表的装填程度越高,反之愈小。对于使用链表法的散列表来说,查找一个元素的平均时间是 O(1+a),因此如果负载因子越大,对空间的利用更充分,然而后果是查找效率的降低;如果负载因子太小,那么散列表的数据将过于稀疏,对空间造成严重浪费。
threshold = (int)(capacity * loadFactor); 结合负载因子的定义公式,threshold就是在此 loadFactor 和capacity对应下允许的最大元素数目,超过这个数目就重新resize,以降低实际的负载因子。默认的的负载因子0.75是对空间和时间效率的一个平衡选择。当容量超出此最大容量时, resize后的HashMap容量是容量的两倍:
if (size++ >= threshold)
resize(2 * table.length);
put方法:(JDK7)
对于<key1,value1>的put方法实现相对比较简单,
根据 key1 的key值计算hash值,根据该hash值与table的length确定该key所在的index,
如果当前位置的Entry不为null,则在该Entry链中遍历,(以链表方式存储)如果找到hash值和key值都相同,则将值value覆盖,返回oldValue;如果当前位置的Entry为null,则直接addEntry存进去。
public V put(K key, V value) {
if (table == EMPTY_TABLE) {
inflateTable(threshold);
}// 当key为null时,调用putForNullKey方法,将value放置在数组第一个位置
if (key == null) return putForNullKey(value);
int hash = hash(key); // 计算出哈希值
int i = indexFor(hash, table.length); // 找到对应的索引
for (Entry<K,V> e = table[i]; e != null; e = e.next) {//如果 i 索引处的 Entry 不为 null,循环不断遍历 e 元素的下一个元素
Object k;
if (e.hash == hash && ((k = e.key) == key || key.equals(k))) { // 当找到的key值完全相等时,新值覆盖旧值,返回旧值
V oldValue = e.value;
e.value = value;
e.recordAccess(this);
return oldValue;
}
}
// 如果i索引处的Entry为null,直接addEntry插入
modCount++;
addEntry(hash, key, value, i);
return null;
}
addEntry方法:(JDK7)
会检查当前table是否需要resize
void addEntry(int hash, K key, V value, int bucketIndex) {
if ((size >= threshold) && (null != table[bucketIndex])) {
resize(2 * table.length); //当前map中的size 如果大于threshole的阈值,则将resize将table的length扩大2倍
hash = (null != key) ? hash(key) : 0;
bucketIndex = indexFor(hash, table.length);
}
createEntry(hash, key, value, bucketIndex);
}
resize方法(JDK7):扩容
将OldTable的长度扩展,并将oldTable中的Entry根据rehash的标记重新计算hash值和index移动到newTable中
void resize(int newCapacity) {
Entry[] oldTable = table;
int oldCapacity = oldTable.length;
if (oldCapacity == MAXIMUM_CAPACITY) { //扩容前的数组大小如果已经达到最大(2^30)了,修改阈值为int的最大值
threshold = Integer.MAX_VALUE; // 不进行扩容
return;
}
Entry[] newTable = new Entry[newCapacity]; // 根据新的容量重新分配数组大小
transfer(newTable, initHashSeedAsNeeded(newCapacity)); // 将当期table的Entry专移到新的table中
table = newTable; // table引用新的table
threshold = (int)Math.min(newCapacity * loadFactor, MAXIMUM_CAPACITY + 1); // 修改阈值
}
/*** 将当前table的Entry转移到新的table中,将原有Entry数组元素拷贝到新的数组里 */
void transfer(Entry[] newTable, boolean rehash) {
int newCapacity = newTable.length;
for (Entry<K,V> e : table) {
while(null != e) {
Entry<K,V> next = e.next;
if (rehash) {
e.hash = null == e.key ? 0 : hash(e.key);
}
int i = indexFor(e.hash, newCapacity); // 重新计算每个元素在数组中的位置
e.next = newTable[i]; //
newTable[i] = e; // 将元素放在数组上
e = next; // 访问下一个Entry链上的元素
}
}
}
static int indexFor(int h, int length) {
return h & (length - 1);
}
newTable[i]的引用赋给了e.next,即使用了单链表的头插入方式,同一位置上新元素总会被放在链表的头部位置;这样先放在一个索引上的元素终会被放到Entry链的尾部(如果发生了hash冲突的话)。(也就是先冲突的最后会在链表的尾部)
在旧数组中同一条Entry链上的元素,通过重新计算索引位置后,有可能被放到了新数组的不同位置上。
当 HashMap中的元素越来越多的时候,hash冲突的几率也就越来越高,因为数组的长度是固定的。所以为了提高查询的效率,就要对 HashMap 的数组进行扩容。
扩容条件:当 HashMap中的元素个数超过数组大小*loadFactor 时,会进行数组扩容, loadFactor默认0.75(折中的取值),默认情况下,数组大小为 16,当 HashMap中元素个数超过12时,就把数组的大小扩大一倍为 2*16=32,
然后重新计算每个元素在数组中的位置,并将元素放进去,即resize,而这是一个非常(最)消耗性能的操作,(并发问题)
优化:如果已经预知 HashMap中元素的个数,那么预设元素的个数能够有效的提高 HashMap的性能。
源码:在Java7 中 HashMap的entry是按照index索引存储的,遇到hash冲突的时候采用拉链法解决冲突,将冲突的key和value插入到链表list中。
这种解决方法会有一个缺点,假如key值都冲突,HashMap会退化成一个链表,get的复杂度会变成O(n)。
主要名词:
装载因子:主要控制空间利用率和冲突。大致记住装载因子越大空间利用率更高,但是冲突可能也会变大,反之则相反。源码中默认0.75f
容量:用于控制HashMap大小的
modCount:是渗透在HashMap类中的方法里面的,只要HashMap发生一次变化,就会对应的+1,可以称为修改次数计数器。主要是存在与非线程安全的集合当中。HashMap是一种非线程安全的类(涉及HashMap与HashTable区别),如果某一个HashMap对象你在操作的过程中,被别的线程修该了怎么办?因此,modCount就应运而生啦,在迭代器初始化过程中会将modCount值赋的给迭代器的 expectedModCount。在迭代过程中,判断 modCount 跟 expectedModCount 是否相等,如果不相等就表示已经有其他线程修改了 Map,从而抛出ConcurrentModificationException。这就是fail-fast策略。
在Java8中为了优化该最坏情况下的性能,采用了平衡树来存放这些hash冲突的键值对,性能可提升至O(logn)。
JDK8中HashMap中常量定义
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;
static final int MAXIMUM_CAPACITY = 1 << 30;
static final int MIN_TREEIFY_CAPACITY = 64; // 决定是否转换成tree的最小容量
static final int TREEIFY_THRESHOLD = 8; // 是否将list转换成tree的阈值(扩容时)
static final int UNTREEIFY_THRESHOLD = 6; // 在resize操作中,决定是否untreeify的阈值(扩容时)
static final float DEFAULT_LOAD_FACTOR = 0.75f; // default的加载(装载)因子
transient Node<K,V>[] table;
transient int modCount; // hashmap结构被改变的次数,fail-fast机制
transient int size; // 记录hashmap中存储键-值对的数量
//当知道所要构建的数据容量的大小时,最好直接指定大小,提高效率
构造方法:
public HashMap(int initialCapacity, float loadFactor) { if (initialCapacity < 0) throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity); if (initialCapacity > MAXIMUM_CAPACITY) initialCapacity = MAXIMUM_CAPACITY; if (loadFactor <= 0 || Float.isNaN(loadFactor)) throw new IllegalArgumentException("Illegal load factor: " + loadFactor); this.loadFactor = loadFactor;
//重新定义了扩容的门限 this.threshold = tableSizeFor(initialCapacity); }
//
static final int tableSizeFor(int cap) { int n = cap - 1; n |= n >>> 1; n |= n >>> 2; n |= n >>> 4; n |= n >>> 8; n |= n >>> 16;
// 最终变成2的倍数 return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1; }
put方法(JDK8)
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length; //table为空的时候,n为table的长度
if ((p = tab[i = (n - 1) & hash]) == null) // (n - 1) & hash 与JDK7中indexFor方法实现相同,若i位置上的值为空,则新建一个Node,table[i]指向该Node。
([i = (n - 1) & hash])相当于%运算,但%运算效率没有这样高)【数组大小一定要是2的n次幂。因为这样数组的散列性就大,碰撞的概率就低。2的n次幂,最高位都是1,其他都是0,然后减一,低位都是1,和hash值&后,不会出现非2次幂出现的一个位置中,因为减一,而出现后面有0的状态,然后与运算后,可能有多个值在同一个地方,碰撞率增大】
作用1:不会越界
作用2:降低碰撞几率
tab[i] = newNode(hash, key, value, null); // 这里的数组位置为空,就存放进去
else {
// 如果不为空,也就是有冲突了,是否成链或成树
Node<K,V> e; K k;
if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k))))
e = p; //key相同则覆盖
else if (p instanceof TreeNode) //有值,且已经是红黑树了
// 不同,且当前位置上的的node p已经是TreeNode的实例,则再该树上插入新的node。
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else { //是链表
// 若i位置上的值不为空,判断当前位置上的Node p 是否与要插入的key的hash和key相同
// 在i位置上的链表中找到p.next为null的位置,binCount计算出当前链表的长度,如果继续将冲突的节点插入到该链表中,会使链表的长度大于tree化的阈值,则将链表转换成tree。
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {//将p的下一节点赋给e,如果为null,创建一个新节点赋给p的下一个节点
p.next = newNode(hash, key, value, null);
//如果冲突节点达到8个,调用treeifyBin(tab, hash), treeifyBin首先回去判断当前hash表的长度,如果不足64的话,实际上就只进行resize,扩容table,如果已经达到64,才将冲突项存储结构改为红黑树。
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st 【链表长度大于8】
treeifyBin(tab, hash); //转化为红黑树的结构
break;
}
//如果有相同的hash和key,则退出循环
if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e; //将p调整为下一个节点
}
}
//若e不为null,表示已存在与待插入节点hash、key相同的节点,hashmap后插入的key值对应的value会覆盖以前相同key值对应的value值,就是下面这块代码实现的
if (e != null) { // existing mapping for key
V oldValue = e.value;
//判断是否修改已插入节点的value
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount; //插入新节点后,hashmap的结构调整次数+1
if (++size > threshold) //如果hashMap的大小大于阀值就需要扩容操作
resize();//HashMap中节点数+1,如果大于threshold,那么要进行一次扩容
afterNodeInsertion(evict);
return null;
}
resize方法,由于需要考虑hash冲突解决时采用的可能是list 也可能是balance tree的方式,因此resize方法相比JDK7中复杂了一些,
resize方法(JDK8)(扩容后需要重新打散分散到新的table中)
/**
* Initializes or doubles table size. If null, allocates in accord with initial capacity target held in field threshold.
* Otherwise, because we are using power-of-two expansion, the elements from each bin must either stay at same index, or move with a power of two offset in the new table.
*/
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table; //定义临时Node数组型变量,作为hash table
int oldCap = (oldTab == null) ? 0 : oldTab.length; //读取hash table的长度
int oldThr = threshold; //旧表的阈值(门限)
int newCap, newThr = 0; //定义新表的容量和新表的阈值
if (oldCap > 0) {//进入条件:正常扩容 如果旧表容量大于0,这个情况就是要扩容了
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE; //如果超过最大容量,无法再扩充table
return oldTab;
}//二倍扩容,容量和门限值都加倍
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold // threshold门槛扩大至2倍,扩容
}//进入条件:初始化的时候使用了自定义加载因子的构造函数
else if (oldThr > 0) // initial capacity was placed in threshold // 这里如果执行的情况是原表容量为0的时候,但是阀值又不为0
newCap = oldThr;
else { // zero initial threshold signifies using defaults 这里对数组进行了初始化:调用无参或者一个参数的构造函数进入默认初始化
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); // 容量*负载因子
}
if (newThr == 0) { //二倍扩容,容量和门限值都加倍
float ft = (float)newCap * loadFactor; //新表容量*加载因子
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?(int)ft : Integer.MAX_VALUE);
}
threshold = newThr; //确定新的阀值
//开始构造新表
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; // 创建容量为newCap的newTab,并将oldTab中的Node迁移过来,这里需要考虑链表和tree两种情况。
table = newTab;
//当原来的table不为null时,需要将table[i]中的节点迁移
//遍历旧数组中的元素,复制到table数组中
if (oldTab != null) {
// 循环遍历老数组中的节点内容
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
//TODO:在这里可能会出现数据丢失[多线程引发的问题]
if ((e = oldTab[j]) != null) {//取出链表中第一个节点保存,若不为null,继续下面操作
oldTab[j] = null; // 将旧的表置空
if (e.next == null) // 如果下一个没有链表或者树,则直接迁移到新的table中
newTab[e.hash & (newCap - 1)] = e;// 把该对象赋值给新表的某一个桶中(如果首位为0,则待在原来的位置上)
else if (e instanceof TreeNode) //如果是红黑树,则按照红黑树进行打散
((TreeNode<K,V>)e).split(this, newTab, j, oldCap); // split方法会将树分割为lower 和upper tree两个树,如果子树的节点数小于了UNTREEIFY_THRESHOLD阈值,则将树untreeify,将节点都存放在newTab中。
else { // preserve order 如果下面是链表
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) { //原本这里需要重新计算哈希的,但是这样的运算,就可以直接算出位置了,而不需要使用哈希然后再计算一遍
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else { // 需要改变,迁移到新的table中
if (hiTail == null) hiHead = e;
else hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
/** 通过e.hash & oldCap将链表分为两队
把链表上的键值对按hash值分成lo和hi两串,lo串的新索引位置与原先相同[原先位j],hi串的新索引位置为[原先位置j+oldCap]; 链表的键值对加入lo还是hi串取决于判断条件if ((e.hash & oldCap) == 0),因为capacity是2的幂,所以oldCap为10...0的二进制形式,若判断条件为真,意味着 oldCap为1的那位对应的hash位为0,对新索引的计算没有影响(新索引 =hash&(newCap-*1),newCap=oldCap<<2);若判断条件为假,则 oldCap为1的那位* 对应的hash位为1, 即新索引=hash&( newCap-1 )= hash&( (oldCap<<2) - 1),相当于多了10...0, 即 oldCap
例子:
旧容量=16,二进制10000;新容量=32,二进制100000
旧索引的计算:
hash = xxxx xxxx xxxy xxxx
旧容量-1 1111
&运算 xxxx
新索引的计算:
hash = xxxx xxxx xxxy xxxx
新容量-1 1 1111
&运算 y xxxx
新索引 = 旧索引 + y0000,若判断条件为真,则y=0(lo串索引不变),否则y=1(hi串索引=旧索引+旧容量10000)
*/
}
}
}
}
return newTab;
}
对于resize的理解:
对于oldTable中存储的为15、7、4、5、8、1,长度为8的一个数组中,存储位置如下
0 |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
||
8 |
1 |
|
|
4 |
5 |
|
|
当扩容到一倍后,对于新的位置的选择通过e.hash & oldCap 确认其在新的数组中的位置,
如:8:1000 与原来长度8:1000相与后,为1,则在新的数组中的位置,为原位置加上原数组长度即可。避免了重新计算数组位置。
对于7:111与原长度8:1000相与后,为0,表示其在新数组中的位置是不变的,仍在在7的位置上。
在求新数组的位置时,其仅是最高位上增加了1而已,与原数组长度最高位是一致的,忽略低位信息,可以直接判断出其在原数组中是否已经超过了本身的长度,形成了数据链。
最后在新的空间中存储如下:
0 |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
11 |
12 |
13 |
14 |
15 |
|
1 |
|
|
4 |
5 |
|
7 |
8 |
|
|
|
|
|
|
15 |
JDK1.8优化:使用2次幂的扩展(指长度扩为原来2倍)
经rehash之后,元素的位置要么是在原位置,要么是在原位置再移动2次幂的位置。
图(a)表示扩容前的key1和key2两种key确定索引位置的示例,图(b)表示扩容后key1和key2两种key确定索引位置的示例,其中hash1是key1对应的哈希与高位运算结果。
元素在重新计算hash之后,因为n变为2倍,那么n-1的mask范围在高位多1bit(红色),因此新的index就会发生这样的变化:
在扩充HashMap的时候,不需要像JDK1.7实现那样重新计算hash,只需看原来的hash值新增的那个bit是1还是0就好,是0的话索引没变,是1的话索引变成“原索引+oldCap”,可以看看下图为16扩充为32的resize示意图:
这个设计既省去了重新计算hash值的时间,同时由于新增的1bit是0还是1可以认为是随机的,因此resize的过程,均匀的把之前的冲突的节点分散到新的bucket了。
JDK1.7中rehash的时候,旧链表迁移新链表的时候,如果在新表的数组索引位置相同,则链表元素会倒置,
但JDK1.8不会倒置
再看一下tree的treeifyBin方法和putTreeVal方法的实现,底层采用了红黑树的方法。
final void treeifyBin(Node<K,V>[] tab, int hash) {
int n, index; Node<K,V> e;
if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY) // 若当前长度不足64,则扩容
resize();
else if ((e = tab[index = (n - 1) & hash]) != null) {
TreeNode<K,V> hd = null, tl = null;
do { // 将链表转为红黑树
TreeNode<K,V> p = replacementTreeNode(e, null);
if (tl == null)
hd = p;
else {
p.prev = tl;
tl.next = p;
}
tl = p;
} while ((e = e.next) != null);
if ((tab[index] = hd) != null)
hd.treeify(tab);
}
}
final Node<K,V> untreeify(HashMap<K,V> map) { Node<K,V> hd = null, tl = null; for (Node<K,V> q = this; q != null; q = q.next) { Node<K,V> p = map.replacementNode(q, null); if (tl == null) hd = p; else tl.next = p; tl = p; } return hd; }
// putVal 的tree版本
final TreeNode<K,V> putTreeVal(HashMap<K,V> map, Node<K,V>[] tab, int h, K k, V v) {
Class<?> kc = null;
boolean searched = false;
TreeNode<K,V> root = (parent != null) ? root() : this;
for (TreeNode<K,V> p = root;;) {
int dir, ph; K pk;
if ((ph = p.hash) > h) dir = -1;
else if (ph < h) dir = 1;
else if ((pk = p.key) == k || (k != null && k.equals(pk))) return p;
else if ((kc == null && (kc = comparableClassFor(k)) == null) ||
(dir = compareComparables(kc, k, pk)) == 0) {
if (!searched) {
TreeNode<K,V> q, ch;
searched = true;
if (((ch = p.left) != null && (q = ch.find(h, k, kc)) != null) ||
((ch = p.right) != null && (q = ch.find(h, k, kc)) != null))
return q;
}
dir = tieBreakOrder(k, pk);
}
TreeNode<K,V> xp = p;
if ((p = (dir <= 0) ? p.left : p.right) == null) {
Node<K,V> xpn = xp.next;
TreeNode<K,V> x = map.newTreeNode(h, k, v, xpn);
if (dir <= 0) xp.left = x;
else xp.right = x;
xp.next = x;
x.parent = x.prev = xp;
if (xpn != null) ((TreeNode<K,V>)xpn).prev = x;
moveRootToFront(tab, balanceInsertion(root, x));
return null;
}
}
}
像红黑树、迭代器等还没有仔细研究
红黑树的分析比较难。。。
红黑树的部分源码:
static final class TreeNode<K,V> extends LinkedHashMap.Entry<K,V> { TreeNode<K,V> parent; // red-black tree links TreeNode<K,V> left; TreeNode<K,V> right; TreeNode<K,V> prev; // needed to unlink next upon deletion boolean red; // 节点颜色 TreeNode(int hash, K key, V val, Node<K,V> next) { super(hash, key, val, next); } /** * Returns root of tree containing this node. */ final TreeNode<K,V> root() { for (TreeNode<K,V> r = this, p;;) { if ((p = r.parent) == null) return r; r = p; } }
。。。。
get方法系列:(JDK1.8)
public V get(Object key) { Node<K,V> e; return (e = getNode(hash(key), key)) == null ? null : e.value; }
// 很简单,就是根据哈希值到哈希表中的位置查找,如果是第一个,则直接返回,否则,根据链表或红黑树的方法进行遍历,通过判断key的值进行获取,如果没有找到,则返回null
final Node<K,V> getNode(int hash, Object key) { Node<K,V>[] tab; Node<K,V> first, e; int n; K k; if ((tab = table) != null && (n = tab.length) > 0 && (first = tab[(n - 1) & hash]) != null) { if (first.hash == hash && // always check first node ((k = first.key) == key || (key != null && key.equals(k)))) return first; if ((e = first.next) != null) { if (first instanceof TreeNode) return ((TreeNode<K,V>)first).getTreeNode(hash, key); do { if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) return e; } while ((e = e.next) != null); } } return null; }
clear方法:
public void clear() { Node<K,V>[] tab; modCount++; if ((tab = table) != null && size > 0) { size = 0; for (int i = 0; i < tab.length; ++i) tab[i] = null; // 直接置空,问题来了,直接置空,那么链表红黑树会被回收吗?基于两种回收算法去分析,如果怎样怎样 } }
pullAll分析:
public void putAll(Map<? extends K, ? extends V> m) { putMapEntries(m, true); }
final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) { int s = m.size(); if (s > 0) { if (table == null) { // pre-size float ft = ((float)s / loadFactor) + 1.0F; int t = ((ft < (float)MAXIMUM_CAPACITY) ? (int)ft : MAXIMUM_CAPACITY); if (t > threshold) threshold = tableSizeFor(t); } else if (s > threshold) resize();
// 底层还是直接遍历的方式去赋值。最后还是调用putVal【性能问题有没有??】 for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) { K key = e.getKey(); V value = e.getValue(); putVal(hash(key), key, value, false, evict); } } }
remove方法:
public V remove(Object key) { Node<K,V> e; return (e = removeNode(hash(key), key, null, false, true)) == null ?null : e.value; }
final Node<K,V> removeNode(int hash, Object key, Object value, boolean matchValue, boolean movable) { Node<K,V>[] tab; Node<K,V> p; int n, index; if ((tab = table) != null && (n = tab.length) > 0 && (p = tab[index = (n - 1) & hash]) != null) { Node<K,V> node = null, e; K k; V v; if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) node = p; else if ((e = p.next) != null) { if (p instanceof TreeNode) node = ((TreeNode<K,V>)p).getTreeNode(hash, key); else { do { if (e.hash == hash && ((k = e.key) == key ||(key != null && key.equals(k)))) { node = e; break; } p = e; } while ((e = e.next) != null); } } if (node != null && (!matchValue || (v = node.value) == value || (value != null && value.equals(v)))) { if (node instanceof TreeNode) ((TreeNode<K,V>)node).removeTreeNode(this, tab, movable); else if (node == p) tab[index] = node.next; else p.next = node.next; ++modCount; --size; afterNodeRemoval(node); return node; } } return null; }
final void removeTreeNode(HashMap<K,V> map, Node<K,V>[] tab, boolean movable) { int n; if (tab == null || (n = tab.length) == 0) return; int index = (n - 1) & hash; TreeNode<K,V> first = (TreeNode<K,V>)tab[index], root = first, rl; TreeNode<K,V> succ = (TreeNode<K,V>)next, pred = prev; if (pred == null) tab[index] = first = succ; else pred.next = succ; if (succ != null) succ.prev = pred; if (first == null) return; if (root.parent != null) root = root.root(); if (root == null || root.right == null || (rl = root.left) == null || rl.left == null) { tab[index] = first.untreeify(map); // too small return; } TreeNode<K,V> p = this, pl = left, pr = right, replacement; if (pl != null && pr != null) { TreeNode<K,V> s = pr, sl; while ((sl = s.left) != null) // find successor s = sl; boolean c = s.red; s.red = p.red; p.red = c; // swap colors TreeNode<K,V> sr = s.right; TreeNode<K,V> pp = p.parent; if (s == pr) { // p was s's direct parent p.parent = s; s.right = p; } else { TreeNode<K,V> sp = s.parent; if ((p.parent = sp) != null) { if (s == sp.left) sp.left = p; else sp.right = p; } if ((s.right = pr) != null) pr.parent = s; } p.left = null; if ((p.right = sr) != null) sr.parent = p; if ((s.left = pl) != null) pl.parent = s; if ((s.parent = pp) == null) root = s; else if (p == pp.left) pp.left = s; else pp.right = s; if (sr != null) replacement = sr; else replacement = p; } else if (pl != null) replacement = pl; else if (pr != null) replacement = pr; else replacement = p; if (replacement != p) { TreeNode<K,V> pp = replacement.parent = p.parent; if (pp == null) root = replacement; else if (p == pp.left) pp.left = replacement; else pp.right = replacement; p.left = p.right = p.parent = null; } TreeNode<K,V> r = p.red ? root : balanceDeletion(root, replacement); if (replacement == p) { // detach TreeNode<K,V> pp = p.parent; p.parent = null; if (pp != null) { if (p == pp.left) pp.left = null; else if (p == pp.right) pp.right = null; } } if (movable) moveRootToFront(tab, r); }