当前位置: 移动技术网 > IT编程>开发语言>Java > Java 编程之集合HashMap深入理解使用

Java 编程之集合HashMap深入理解使用

2020年08月01日  | 移动技术网IT编程  | 我要评论
浅谈HashMap(本文基于jdk1.8)HashMap概述昨天写的第一篇居然有人追更了,那今天再给大家整个活儿。大家都知道HashMap是Map接口的实现,HashMap 允许空的 key-value 键值对,HashMap 被认为是 Hashtable 的增强版,HashMap 是一个非线程安全的容器,如果想构造线程安全的 Map 考虑使用 ConcurrentHashMap。HashMap 是无序的,因为 HashMap 无法保证内部存储的键值对的有序性。顺便看看HashMap的结构饭前开

浅谈HashMap

(本文基于jdk1.8)

HashMap概述

昨天写的第一篇居然有人追更了,那今天再给大家整个活儿。大家都知道HashMap是Map接口的实现,HashMap 允许空的 key-value 键值对,HashMap 被认为是 Hashtable 的增强版,HashMap 是一个非线程安全的容器,如果想构造线程安全的 Map 考虑使用 ConcurrentHashMap。HashMap 是无序的,因为 HashMap 无法保证内部存储的键值对的有序性。

顺便看看HashMap的结构

在这里插入图片描述

饭前开胃环节

在看源码前我们先简单说一下HashMap的大致实现原理,HashMap底层是数组+链表+红黑树的集合体,数组的大小为 capacity(默认初始大小为 16,可以通过构造函数传入参数 initialCapacity 来改变)。put 数据时,会根据传入的 key 进行 hash 然后对 capacity 取模得到数组下标 index,然后将 整个 Entry<K,V> 存入到对应的数组下标中去。

整一个图就是这样的

在这里插入图片描述

懂得人肯定会说,假的吧 红色树呢?放错图了,上面1.7的,那来个1.8的

在这里插入图片描述

HashMap的重要属性

直接整活吧

初始容量

首当其冲的当然是初始容量,在源码里他叫DEFAULT_INITIAL_CAPACITY

static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16 

HashMap 的默认初始容量是 1 << 4 = 16, << 是一个左移操作,它相当于是

一个int在Java中占4字节=640000 0000 0000 0000 0000 0000 0000 0001 =1 << 4 表示左移40000 0000 0000 0000 0000 0000 0001 0000 =16 

最大容量

static final int MAXIMUM_CAPACITY = 1 << 30; 

这里是不是有个疑问?int 占用四个字节,按说最大容量应该是左移 31 位,为什么 HashMap 最大容量是左移 30 位呢?因为在数值计算中,最高位也就是最左位的位是代表着符号位,0表示正数,1表示 负数,容量不可能是负数,所以 HashMap 最高位只能移位到 2 ^ 30 次幂。

负载因子

static final float DEFAULT_LOAD_FACTOR = 0.75f; 

HashMap的负载因子是0.75f,也就是float类型的,负载因子和扩容机制息息相关,其实很简单,当HashMap存储的容量达到当前容量*负载因子(0.75)时,就会将HashMap的容量扩大两倍。Ps:HashMap 的第一次扩容就在 DEFAULT_INITIAL_CAPACITY * DEFAULT_LOAD_FACTOR = 12 时进行。

树化阈值

static final int TREEIFY_THRESHOLD = 8; 

听名字就知道了,大家最喜欢的Tree来了,啥时候要变树?当然是在添加元素的时候,一个桶里的元素数量大于8时,它就变成红黑树(JDK1.8特性)了

链表阈值

static final int UNTREEIFY_THRESHOLD = 6; 

untree啊,大家不要怕源码,这写的多通俗易懂,就是去树化,啥时候不变树了?删除元素时,把一个桶里的元素删到不足6个的时候,就自动变成链表了,不就是untree?

扩容临界值

static final int MIN_TREEIFY_CAPACITY = 64; 

直接翻译是最小树化的容量,也确实就是这个意思,当桶数组的容量小于这个值(64)时,优先进行扩容(*2),而不是树化。

HashMap的构造函数

可以看到下图中,HashMap有四个构造函数,分别来介绍一下他们。

在这里插入图片描述

HashMap(int,float)

带有初始容量initialCapacity负载因子loadFactor的构造函数

public HashMap(int initialCapacity, float loadFactor) { if (initialCapacity < 0) throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity); //显然初始容量不可能为负值,这里首先判断若为负,直接IllegalArgumentException了。 if (initialCapacity > MAXIMUM_CAPACITY) initialCapacity = MAXIMUM_CAPACITY; //如果传递进来的初始容量大于最大容量时,直接让初始容量=最大容量。 if (loadFactor <= 0 || Float.isNaN(loadFactor)) //其次负载因子也不能小于0 throw new IllegalArgumentException("Illegal load factor: " +loadFactor); this.loadFactor = loadFactor; this.threshold = tableSizeFor(initialCapacity); //最后才进行数组的扩容,这个扩容机制很重要,其中tableSizeFor这个方法也很精巧,具体见后文。 } 

HashMap(int)

只带有 initialCapacity 的构造函数

public HashMap(int initialCapacity) { this(initialCapacity, DEFAULT_LOAD_FACTOR); } 

可以发现这里最后还是会调用上面第一个双参构造方法,不过这个负载因子的赋为了DEFAULT_LOAD_FACTOR,前面说了,这就是0.75f

HashMap()

无参构造函数

/**
     * Constructs an empty <tt>HashMap</tt> with the default initial capacity
     * (16) and the default load factor (0.75).
     */ public HashMap() { this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted } 

这里就是构造一个空的HashMap,默认初试容量(16),默认负载因子(0.75),

看源码中的注释就知道了。

HashMap(Map<? extends K, ? extends V>)

最后是带有map的构造函数

public HashMap(Map<? extends K, ? extends V> m) { this.loadFactor = DEFAULT_LOAD_FACTOR; putMapEntries(m, false); } 

这里调用putMapEntries方法,直接将外部元素批量放入HashMap中

putMapEntries

顺便讲一讲这个put进map方法,废话不多说,直接上源码

final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) { int s = m.size(); if (s > 0) { //首先传进来的map大小不能比0小吧 if (table == null) { // pre-size //sloadFactor 计算传进来的map的长度是否要达到阈值,因为会计算出小数因此+1.0F向上取整 float ft = ((float)s / loadFactor) + 1.0F; //当不大于最大值时,就用ft的长度 int t = ((ft < (float)MAXIMUM_CAPACITY) ? (int)ft : MAXIMUM_CAPACITY); //大于的话就用最大容量 if (t > threshold) //如果这里的t比下次要扩容的值还大,那只能把这个t作为扩容的标准值再扩容了 threshold = tableSizeFor(t); } //若果走这个分支,则表示判断出来传入的map size大于当前map的threshold,这时我们必须先resize,表示先扩容,再装(因为我们已经提前知道了这个map装不下,当然要先扩大了) else if (s > threshold) resize(); //循环的时候如果大于阈值,也会触发resize for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) { //下面的Entry泛型类对象,只能使用get类型的函数 K key = e.getKey(); V value = e.getValue(); putVal(hash(key), key, value, false, evict); } } } 

常用方法

put(K key, V value)

public V put(K key, V value) { return putVal(hash(key), key, value, false, true); } 

可以看到HashMap并没有直接提供putVal接口给用户调用,而是提供的put函数,而put函数就是通过putVal来插 入元素的,那就直接点过去看看吧

putVal

看到这种不要怕,慢慢来,保证通俗易懂。这种方法一看就面试常客,你确定不认真看看?

final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { Node<K,V>[] tab; Node<K,V> p; int n, i; //首先看table,如果它没有初始化,或者长度为0,那就直接调用resize扩容 if ((tab = table) == null || (n = tab.length) == 0) n = (tab = resize()).length;// 获取长度(16) //这里(n-1)&hash是真正的hash方法,确定了元素要放的地方(桶),新生成的节点放入桶中,此时该节点就是放在数组中 if ((p = tab[i = (n - 1) & hash]) == null) //如果为null(空),就则新建一个结点 tab[i] = newNode(hash, key, value, null); else { Node<K,V> e; K k; //如果新插入的结点和table中p结点的hash值,key值相同的话 //就把第一个元素赋给e,用e来记录 if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) e = p; // 如果是红黑树结点的话,进行红黑树插入 else if (p instanceof TreeNode) e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); else { for (int binCount = 0; ; ++binCount) { // 代表这个单链表只有一个头部结点,直接新建一个结点即可 if ((e = p.next) == null) { p.next = newNode(hash, key, value, null); // 链表长度大于8时,将链表转红黑树 if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st treeifyBin(tab, hash); break;// 如果找到了同 hash、key 的节点,那么直接退出循环 } if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) break; // 更新 p 指向下一节点 p = e; } } // map中含有旧值,返回旧值 if (e != null) { // existing mapping for key V oldValue = e.value; // 判断是否允许覆盖,并且oldvalue(旧值)是否为空 if (!onlyIfAbsent || oldValue == null) //是则用新值来替换旧值 e.value = value; //访问结束后回调 afterNodeAccess(e); //返回旧值 return oldValue; } } // map调整次数 + 1 ++modCount; // 键值对的数量达到阈值,需要扩容 if (++size > threshold) resize(); //插入后回调 afterNodeInsertion(evict); return null; } 

在这里插入图片描述

三个回调感兴趣的请移步https://segmentfault.com/a/1190000009498647

这里的put还有两个动图实现,一并放在这里了

put(K, V)

在这里插入图片描述

put(K, V) 相同hash值

在这里插入图片描述

图源https://mp.weixin.qq.com/s/Z_UzIX3gbtACyAFtwFD7Pg

放了总得拿吧,整点get吧

get(Object key)

public V get(Object key) { Node<K,V> e; return (e = getNode(hash(key), key)) == null ? null : e.value; } 

一看这个又是个小弟,真正的大哥getNode藏在返回值里,跟put一样,我们不能直接调用getNode,只能通过get函数来调用

getNode(int hash, Object key)

final Node<K,V> getNode(int hash, Object key) { Node<K,V>[] tab; Node<K,V> first, e; int n; K k; // 这里table已经初始化,长度大于0,根据hash寻找table中的项也不为空 if ((tab = table) != null && (n = tab.length) > 0 && (first = tab[(n - 1) & hash]) != null) { //桶里第一项(first node)相等 if (first.hash == hash && // always check first node ((k = first.key) == key || (key != null && key.equals(k)))) return first; // 桶中不止一个结点 if ((e = first.next) != null) { //如果是红黑树节点 if (first instanceof TreeNode) //那就去红黑树里找 return ((TreeNode<K,V>)first).getTreeNode(hash, key); //否则就到链表里找 do { if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) return e; } while ((e = e.next) != null); } } return null; } 

Node<K,V>[] resize()

最最最重要的resize来了,这个真的通俗易懂,不骗你们,不信你们往里面看

final Node<K,V>[] resize() { //table把老tab装起来 Node<K,V>[] oldTab = table; //保存一下老tab的大小 int oldCap = (oldTab == null) ? 0 : oldTab.length; //再存一下当前阈值 int oldThr = threshold; int newCap, newThr = 0; //看看老tab是不是大于0啊 if (oldCap > 0) { //如果老tab比最大容量还大,那没办法了,只能把阈值也赋为最大整形了 if (oldCap >= MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return oldTab; } //<<1就是扩大两倍你不会看不懂吧 else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY) //阈值也要翻倍哦 newThr = oldThr << 1; // double threshold } //看看之前的阈值是不是比0大 else if (oldThr > 0) // initial capacity was placed in threshold newCap = oldThr; //走这个else,那就是old table <= 0 并且 存储的阈值 <= 0了 else { // zero initial threshold signifies using defaults newCap = DEFAULT_INITIAL_CAPACITY; newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); } //如果扩充阈值为0 if (newThr == 0) { // // 扩容阈值为 初始容量*负载因子 float ft = (float)newCap * loadFactor; newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? (int)ft : Integer.MAX_VALUE); } //重新给负载因子赋值 threshold = newThr; //获取扩容后的数组 @SuppressWarnings({"rawtypes","unchecked"}) Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; table = newTab; // 之前的table已经初始化过 if (oldTab != null) { // 复制元素,重新进行hash for (int j = 0; j < oldCap; ++j) { Node<K,V> e; if ((e = oldTab[j]) != null) { oldTab[j] = null; if (e.next == null) newTab[e.hash & (newCap - 1)] = e; else if (e instanceof TreeNode) //重新映射时,需要对红黑树进行拆分,split懂? ((TreeNode<K,V>)e).split(this, newTab, j, oldCap); else { // preserve order Node<K,V> loHead = null, loTail = null; Node<K,V> hiHead = null, hiTail = null; Node<K,V> next; //遍历链表,将链表的节点按照原顺序进行分组 do { next = e.next; if ((e.hash & oldCap) == 0) { if (loTail == null) loHead = e; else loTail.next = e; loTail = e; } else { if (hiTail == null) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null); // 将分组后的链表放到新桶中 if (loTail != null) { loTail.next = null; newTab[j] = loHead; } if (hiTail != null) { hiTail.next = null; newTab[j + oldCap] = hiHead; } } } } } return newTab; } 

还是一清晰的动图

图源https://mp.weixin.qq.com/s/Z_UzIX3gbtACyAFtwFD7Pg

在这里插入图片描述

扩容总结

从putVal里不难发现,每插入一个元素时,size就+1,当size比threshold大的时候,就触发扩容,假设我们当前大小(capacity)是64,负载因子(loadFator)是0.75,那threshold为48= 64 * 0.75。

Ps:

1、JDK1.8之前HashMap是一个链表散列结构,JDK1.8之后则是数组+链表+红黑树的数据结构。

2、通过阅读源码发现HashMap能快速通过key得到value得益于其内部用了hash查找值的方法。

3、HashMap在并发执行put操作时会发生数据覆盖的情况,是其线程不安全的主要原因,其中1.7和1.8的HashMap导致其不安全的原因并不相同,具体移步https://www.cnblogs.com/javastack/p/12801870.html

remove(Object key)

相比前面两个方法,HashMap中的移除方法就很简单了

public V remove(Object key) { Node<K,V> e; return (e = removeNode(hash(key), key, null, false, true)) == null ? null : e.value; } 

老样子小弟先上,最后都得大哥来

removeNode(***)

final Node<K,V> removeNode(int hash, Object key, Object value, boolean matchValue, boolean movable) { Node<K,V>[] tab; Node<K,V> p; int n, index; if ((tab = table) != null && (n = tab.length) > 0 && (p = tab[index = (n - 1) & hash]) != null) { Node<K,V> node = null, e; K k; V v; if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) node = p; else if ((e = p.next) != null) { if (p instanceof TreeNode) node = ((TreeNode<K,V>)p).getTreeNode(hash, key); else { do { if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) { node = e; break; } p = e; } while ((e = e.next) != null); } } if (node != null && (!matchValue || (v = node.value) == value || (value != null && value.equals(v)))) { if (node instanceof TreeNode) ((TreeNode<K,V>)node).removeTreeNode(this, tab, movable); else if (node == p) tab[index] = node.next; else p.next = node.next; ++modCount; --size; afterNodeRemoval(node); return node; } } return null; } 

remove 方法首先会通过 hash 来找到对应的 bucket,然后通过遍历链表,找到键值相等的节点,然后把对应的节点进行删除。

精巧的tableSizeFor

首先我们看看源码

static final int tableSizeFor(int cap) { int n = cap - 1; n |= n >>> 1; n |= n >>> 2; n |= n >>> 4; n |= n >>> 8; n |= n >>> 16; return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1; } 

这个方法是jdk1.8才加入的,直接告诉大家这个方法的功能,是返回大于输入参数且最近的2的整数次幂的数,比如这样:

public static void main(String[] args) { System.out.println(tableSizeFor(1));//输出1 System.out.println(tableSizeFor(5));//输出8 System.out.println(tableSizeFor(25));//输出32 System.out.println(tableSizeFor(125));//输出128 System.out.println(tableSizeFor(625));//输出1024 } 

稍微抓一个出来讲解一下,当输入n=1<<30 的时候

0100 0000 0000 0000 0000 0000 0000 0000 (n) 0110 0000 0000 0000 0000 0000 0000 0000 (n |= n >>> 1) 0111 1000 0000 0000 0000 0000 0000 0000 (n |= n >>> 2) 0111 1111 1000 0000 0000 0000 0000 0000 (n |= n >>> 4) 0111 1111 1111 1111 1000 0000 0000 0000 (n |= n >>> 8) 0111 1111 1111 1111 1111 1111 1111 1111 (n |= n >>> 16) 

其中(n |= n >>> 1)表示,n和右移一位的n进行或运算复制,传入的10(二进制1010),进行n>>>1得5(二进制0101),然后1010|0101=1111。以此类推,就能得到2的n次幂的数了,但仔细看又会发现,最开始是cap(容量)-1的值赋给n,最后又return中又把1加回来了,为什么呢?当你带入0会发现输出为1,显然不合理,所以HashMap的容量要大于1才有意义。

常见面试题

HashMap 的数据结构

JDK1.7 中,HashMap 采用位桶 + 链表

JDK1.8 中,HashMap 采用位桶 + 链表+红黑树

HashMap 为啥线程不安全

HashMap 不是一个线程安全的容器,不安全性体现在多线程并发对 HashMap 进行 put 操作上。如果有两个线程 A 和 B ,首先 A 希望插入一个键值对到 HashMap 中,在决定好桶的位置进行 put 时,此时 A 的时间片正好用完了,轮到 B 运行,B 运行后执行和 A 一样的操作,只不过 B 成功把键值对插入进去了。如果 A 和 B 插入的位置(桶)是一样的,那么线程 A 继续执行后就会覆盖 B 的记录,造成了数据不一致问题。

还有一点在于 HashMap 在扩容时,因 resize 方法会形成环,造成死循环,导致 CPU 飙高。

HashMap 的长度为什么是 2 的幂次方

为了能让 HashMap 存取高效,尽量较少碰撞,也就是要尽量把数据分配均匀。我们上面也讲到了过了,Hash 值的范围值-2147483648到2147483647,前后加起来大概40亿的映射空间,只要哈希函数映射得比较均匀松散,一般应用是很难出现碰撞的。但问题是一个40亿长度的数组,内存是放不下的。所以这个散列值是不能直接拿来用的。用之前还要先做对数组的长度取模运算,得到的余数才能用来要存放的位置也就是对应的数组下标。这个数组下标的计算方法是“ (n - 1) & hash ”。(n代表数组长度)。这也就解释了 HashMap 的长度为什么是2的幂次方。这个算法应该如何设计呢?我们首先可能会想到采用%取余的操作来实现。但是,重点来了:“取余(%)操作中如果除数是2的幂次则等价于与其除数减一的与(&)操作(也就是说 hash%length==hash&(length-1)的前提是 length 是2的 n 次方;)。” 并且 采用二进制位操作 &,相对于%能够提高运算效率,这就解释了 HashMap 的长度为什么是2的幂次方。

HashMap 线程安全的实现有哪些

并发场景下推荐使用 ConcurrentHashMap,还可以使用 HashTable 。

HashMap 的 put 过程

HashMap 的长度为什么是 2 的幂次方

为了能让 HashMap 存取高效,尽量较少碰撞,也就是要尽量把数据分配均匀。我们上面也讲到了过了,Hash 值的范围值-2147483648到2147483647,前后加起来大概40亿的映射空间,只要哈希函数映射得比较均匀松散,一般应用是很难出现碰撞的。但问题是一个40亿长度的数组,内存是放不下的。所以这个散列值是不能直接拿来用的。用之前还要先做对数组的长度取模运算,得到的余数才能用来要存放的位置也就是对应的数组下标。这个数组下标的计算方法是“ (n - 1) & hash ”。(n代表数组长度)。这也就解释了 HashMap 的长度为什么是2的幂次方。这个算法应该如何设计呢?我们首先可能会想到采用%取余的操作来实现。但是,重点来了:“取余(%)操作中如果除数是2的幂次则等价于与其除数减一的与(&)操作(也就是说 hash%length==hash&(length-1)的前提是 length 是2的 n 次方;)。” 并且 采用二进制位操作 &,相对于%能够提高运算效率,这就解释了 HashMap 的长度为什么是2的幂次方。

HashMap 线程安全的实现有哪些

并发场景下推荐使用 ConcurrentHashMap,还可以使用 HashTable 。

HashMap 的 put 过程

见上

本文地址:https://blog.csdn.net/weixin_43876186/article/details/108268471

如您对本文有疑问或者有任何想说的,请点击进行留言回复,万千网友为您解惑!

相关文章:

验证码:
移动技术网