初始容量|看完这篇 HashMap,和面试官扯皮就没问题了

初始容量|看完这篇 HashMap,和面试官扯皮就没问题了
文章图片
(如果你没有时间细抠本文,可以直接看 HashMap 概述,能让你对 HashMap 有个大致的了解)
HashMap 是 Map 接口的实现,HashMap 允许空的 key-value 键值对,HashMap 被认为是 Hashtable 的增强版,HashMap 是一个非线程安全的容器,如果想构造线程安全的 Map 考虑使用 ConcurrentHashMap。HashMap 是无序的,因为 HashMap 无法保证内部存储的键值对的有序性。
HashMap 的底层数据结构是数组 + 链表的集合体,数组在 HashMap 中又被称为桶(bucket)。遍历 HashMap 需要的时间损耗为 HashMap 实例桶的数量 + (key - value 映射) 的数量。因此,如果遍历元素很重要的话,不要把初始容量设置的太高或者负载因子设置的太低。
HashMap 实例有两个很重要的因素,初始容量和负载因子,初始容量指的就是 hash 表桶的数量,负载因子是一种衡量哈希表填充程度的标准,当哈希表中存在足够数量的 entry,以至于超过了负载因子和当前容量,这个哈希表会进行 rehash 操作,内部的数据结构重新 rebuilt。
注意 HashMap 不是线程安全的,如果多个线程同时影响了 HashMap ,并且至少一个线程修改了 HashMap 的结构,那么必须对 HashMap 进行同步操作。可以使用 Collections.synchronizedMap(new HashMap)来创建一个线程安全的 Map。
HashMap 会导致除了迭代器本身的 remove 外,外部 remove 方法都可能会导致 fail-fast 机制,因此尽量要用迭代器自己的 remove 方法。如果在迭代器创建的过程中修改了 map 的结构,就会抛出 ConcurrentModificationException异常。
下面就来聊一聊 HashMap 的细节问题。我们还是从面试题入手来分析 HashMap 。
HashMap 和 HashTable 的区别
我们上面介绍了一下 HashMap ,现在来介绍一下 HashTable。
相同点 HashMap 和 HashTable 都是基于哈希表实现的,其内部每个元素都是 key-value键值对,HashMap 和 HashTable 都实现了 Map、Cloneable、Serializable 接口。
不同点

  • 父类不同:HashMap 继承了 AbstractMap类,而 HashTable 继承了Dictionary
初始容量|看完这篇 HashMap,和面试官扯皮就没问题了
文章图片
  • 空值不同:HashMap 允许空的 key 和 value 值,HashTable 不允许空的 key 和 value 值。HashMap 会把 key 当做普通的 key 对待。不允许 key 重复。
初始容量|看完这篇 HashMap,和面试官扯皮就没问题了
文章图片
  • 线程安全性:HashMap 不是线程安全的,如果多个外部操作同时修改 HashMap 的数据结构比如 add 或者是 delete,必须进行同步操作,仅仅对 key 或者 value 的修改不是改变数据结构的操作。可以选择构造线程安全的 Map 比如 Collections.synchronizedMap或者是ConcurrentHashMap。而 HashTable 本身就是线程安全的容器。
  • 性能方面:虽然 HashMap 和 HashTable 都是基于单链表的,但是 HashMap 进行 put 或者 get"/>
    文章图片
    • 初始容量不同:HashTable 的初始长度是11,之后每次扩充容量变为之前的 2n+1(n为上一次的长度)
      而 HashMap 的初始长度为16,之后每次扩充变为原来的两倍。创建时,如果给定了容量初始值,那么HashTable 会直接使用你给定的大小,而 HashMap 会将其扩充为2的幂次方大小。
    HashMap 和 HashSet 的区别
    也经常会问到 HashMap 和 HashSet 的区别
    HashSet 继承于 AbstractSet 接口,实现了 Set、Cloneable,、java.io.Serializable 接口。HashSet 不允许集合中出现重复的值。HashSet 底层其实就是 HashMap,所有对 HashSet 的操作其实就是对 HashMap 的操作。所以 HashSet 也不保证集合的顺序。
    HashMap 底层结构
    要了解一个类,先要了解这个类的结构,先来看一下 HashMap 的结构:
    初始容量|看完这篇 HashMap,和面试官扯皮就没问题了
    文章图片
    最主要的三个类(接口)就是 HashMap,AbstractMapMap了,HashMap 我们上面已经在概述中简单介绍了一下,下面来介绍一下 AbstractMap。
    AbstractMap 类 这个抽象类是 Map 接口的骨干实现,以求最大化的减少实现类的工作量。为了实现不可修改的 map,程序员仅需要继承这个类并且提供 entrySet 方法的实现即可。它将会返回一组 map 映射的某一段。通常,返回的集合将在AbstractSet 之上实现。这个set不应该支持 add 或者 remove 方法,并且它的迭代器也不支持 remove 方法。
    为了实现可修改的 map,程序员必须额外重写这个类的 put 方法(否则就会抛出UnsupportedOperationException),并且 entrySet.iterator 返回的 iterator 必须实现 remove 方法。
    Map 接口 Map 接口定义了 key-value 键值对的标准。一个对象支持 key-value 存储。Map不能包含重复的 key,每个键最多映射一个值。这个接口代替了Dictionary 类,Dictionary是一个抽象类而不是接口。
    Map 接口提供了三个集合的构造器,它允许将 map 的内容视为一组键,值集合或一组键值映射。map的顺序定义为map映射集合上的迭代器返回其元素的顺序。一些map实现,像是TreeMap类,保证了map的有序性;其他的实现,像是HashMap,则没有保证。
    重要内部类和接口 Node 接口 Node节点是用来存储HashMap的一个个实例,它实现了 Map.Entry接口,我们先来看一下 Map中的内部接口 Entry 接口的定义
    Map.Entry
    // 一个map 的entry 链,这个Map.entrySet方法返回一个集合的视图,包含类中的元素,
    // 这个唯一的方式是从集合的视图进行迭代,获取一个map的entry链。这些Map.Entry链只在
    // 迭代期间有效。
    interface Entry<K,V> {
    K getKey;
    V getValue;
    V setValue(V value);
    boolean equals(Object o);
    int hashCode;
    }
    Node 节点会存储四个属性,hash值,key,value,指向下一个Node节点的引用
    // hash值
    final int hash;
    // 键
    final K key;
    // 值
    V value;
    // 指向下一个Node节点的Node类型
    Node<K,V> next;
    因为Map.Entry 是一条条entry 链连接在一起的,所以Node节点也是一条条entry链。构造一个新的HashMap实例的时候,会把这四个属性值分为传入
    Node(int hash, K key, V value, Node<K,V> next) {
    this.hash = hash;
    this.key = key;
    this.value = https://www.360kuai.com/value;
    this.next = next;
    }
    实现了 Map.Entry 接口所以必须实现其中的方法,所以 Node 节点中也包括上面的五个方法
    KeySet 内部类 keySet 类继承于 AbstractSet 抽象类,它是由 HashMap 中的 keyset方法来创建 KeySet 实例的,旨在对HashMap 中的key键进行操作,看一个代码示例
    初始容量|看完这篇 HashMap,和面试官扯皮就没问题了
    文章图片
    图中把「1, 2, 3」这三个key 放在了HashMap中,然后使用 lambda 表达式循环遍历 key 值,可以看到,map.keySet 其实是返回了一个 Set 接口,KeySet 是在 Map 接口中进行定义的,不过是被HashMap 进行了实现操作,来看一下源码就明白了
    // 返回一个set视图,这个视图中包含了map中的key。
    public Set keySet {
    // // keySet 指向的是 AbstractMap 中的 keyset
    Set ks = keySet;
    if (ks == ) {
    // 如果 ks 为空,就创建一个 KeySet 对象
    // 并对 ks 赋值。
    ks = new KeySet;
    keySet = ks;
    }
    return ks;
    }
    所以 KeySet 类中都是对 Map中的 Key 进行操作的:
    初始容量|看完这篇 HashMap,和面试官扯皮就没问题了
    文章图片
    Values 内部类 Values 类的创建其实是和 KeySet 类很相似,不过 KeySet 旨在对 Map中的键进行操作,Values 旨在对key-value键值对中的 value 值进行使用,看一下代码示例:
    初始容量|看完这篇 HashMap,和面试官扯皮就没问题了
    文章图片
    循环遍历 Map中的 values值,看一下 values 方法最终创建的是什么:
    public Collection values {
    // values 其实是 AbstractMap 中的 values
    Collection vs = values;
    if (vs == ) {
    vs = new Values;
    values = vs;
    }
    return vs;
    }
    所有的 values 其实都存储在 AbstractMap 中,而 Values 类其实也是实现了 Map 中的 Values 接口,看一下对 values 的操作都有哪些方法
    初始容量|看完这篇 HashMap,和面试官扯皮就没问题了
    文章图片
    其实是和 key 的操作差不多
    EntrySet 内部类 上面提到了HashMap中分别有对 key、value 进行操作的,其实还有对 key-value键值对进行操作的内部类,它就是 EntrySet,来看一下EntrySet 的创建过程:
    初始容量|看完这篇 HashMap,和面试官扯皮就没问题了
    文章图片
    点进去 entrySet 会发现这个方法也是在 Map 接口中定义的,HashMap对它进行了重写
    // 返回一个 set 视图,此视图包含了 map 中的key-value 键值对
    public Set<Map.Entry<K,V>> entrySet {
    Set<Map.Entry<K,V>> es;
    return (es = entrySet) == "/>
    文章图片
    HashMap 1.7 的底层结构 JDK1.7 中,HashMap 采用位桶 + 链表的实现,即使用链表来处理冲突,同一 hash 值的链表都存储在一个数组中。但是当位于一个桶中的元素较多,即 hash 值相等的元素较多时,通过 key 值依次查找的效率较低。它的数据结构如下
    初始容量|看完这篇 HashMap,和面试官扯皮就没问题了
    文章图片
    HashMap 大致结构
    HashMap 底层数据结构就是一个 Entry 数组,Entry 是 HashMap 的基本组成单元,每个 Entry 中包含一个 key-value 键值对。
    transient Entry<K,V> table = (Entry<K,V>[]) EMPTY_TABLE;
    而每个 Entry 中包含 「hash, key ,value」属性,它是 HashMap 的一个内部类
    static class Entry<K,V> implements Map.Entry<K,V> {
    final K key;
    V value;
    Entry<K,V> next;
    int hash;
    Entry(int h, K k, V v, Entry<K,V> n) {
    value = https://www.360kuai.com/v;
    next = n;
    key = k;
    hash = h;
    }
    ...
    }
    所以,HashMap 的整体结构就像下面这样
    初始容量|看完这篇 HashMap,和面试官扯皮就没问题了
    文章图片
    HashMap 1.8 的底层结构 与 JDK 1.7 相比,1.8 在底层结构方面做了一些改变,当每个桶中元素大于 8 的时候,会转变为红黑树,目的就是优化查询效率,JDK 1.8 重写了 resize方法。
    初始容量|看完这篇 HashMap,和面试官扯皮就没问题了
    文章图片
    HashMap 重要属性 「初始容量」
    HashMap 的默认初始容量是由 DEFAULT_INITIAL_CAPACITY属性管理的。
    static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;
    HashMap 的默认初始容量是 1 << 4 = 16, << 是一个左移操作,它相当于是
    初始容量|看完这篇 HashMap,和面试官扯皮就没问题了
    文章图片
    「最大容量」
    HashMap 的最大容量是
    static final int MAXIMUM_CAPACITY = 1 << 30;
    这里是不是有个疑问?int 占用四个字节,按说最大容量应该是左移 31 位,为什么 HashMap 最大容量是左移 30 位呢?因为在数值计算中,最高位也就是最左位的是代表着符号为,0 -> 正数,1 -> 负数,容量不可能是负数,所以 HashMap 最高位只能移位到 2 ^ 30 次幂。
    「默认负载因子」
    HashMap 的默认负载因子是
    static final float DEFAULT_LOAD_FACTOR = 0.75f;
    float 类型所以用 .f为单位,负载因子是和扩容机制有关,这里大致提一下,后面会细说。扩容机制的原则是当 HashMap 中存储的数量 > HashMap 容量 * 负载因子时,就会把 HashMap 的容量扩大为原来的二倍。
    HashMap 的第一次扩容就在 DEFAULT_INITIAL_CAPACITY * DEFAULT_LOAD_FACTOR = 12 时进行。
    「树化阈值」
    HashMap 的树化阈值是
    static final int TREEIFY_THRESHOLD = 8;
    在进行添加元素时,当一个桶中存储元素的数量 > 8 时,会自动转换为红黑树(JDK1.8 特性)。
    「链表阈值」
    HashMap 的链表阈值是
    static final int UNTREEIFY_THRESHOLD = 6;
    在进行删除元素时,如果一个桶中存储元素数量 < 6 后,会自动转换为链表
    「扩容临界值」
    static final int MIN_TREEIFY_CAPACITY = 64;
    这个值表示的是当桶数组容量小于该值时,优先进行扩容,而不是树化
    「节点数组」
    HashMap 中的节点数组就是 Entry 数组,它代表的就是 HashMap 中 「数组 + 链表」数据结构中的数组。
    transient Node<K,V> table;
    Node 数组在第一次使用的时候进行初始化操作,在必要的时候进行 resize,resize 后数组的长度扩容为原来的二倍。
    「键值对数量」
    在 HashMap 中,使用 size来表示 HashMap 中键值对的数量。
    「修改次数」
    在 HashMap 中,使用 modCount来表示修改次数,主要用于做并发修改 HashMap 时的快速失败 - fail-fast 机制。
    「扩容阈值」
    在 HashMap 中,使用 threshold表示扩容的阈值,也就是 初始容量 * 负载因子的值。
    threshold 涉及到一个扩容的阈值问题,这个问题是由 tableSizeFor源码解决的。我们先看一下它的源码再来解释
    static final int tableSizeFor(int cap) {
    int n = cap - 1;
    n |= n >>> 1;
    n |= n >>> 2;
    n |= n >>> 4;
    n |= n >>> 8;
    n |= n >>> 16;
    return (n < 0) "/>
    文章图片
    我们上面采用了一个比较大的数字进行扩容,由上图可知 2^29 次方的数组经过一系列的或操作后,会算出来结果是 2^30 次方。
    所以扩容后的数组长度是原来的 2 倍。
    「负载因子」
    loadFactor表示负载因子,它表示的是 HashMap 中的密集程度。
    HashMap 构造函数 在 HashMap 源码中,有四种构造函数,分别来介绍一下
    • 带有初始容量 initialCapacity负载因子 loadFactor的构造函数
    public HashMap(int initialCapacity, float loadFactor) {
    if (initialCapacity < 0)
    throw new IllegalArgumentException("Illegal initial capacity: " +
    initialCapacity);
    if (initialCapacity > MAXIMUM_CAPACITY)
    initialCapacity = MAXIMUM_CAPACITY;
    if (loadFactor <= 0 || Float.isNaN(loadFactor))
    throw new IllegalArgumentException("Illegal load factor: " +
    loadFactor);
    this.loadFactor = loadFactor;
    // 扩容的阈值
    this.threshold = tableSizeFor(initialCapacity);
    }
    初始容量不能为负,所以当传递初始容量 < 0 的时候,会直接抛出 IllegalArgumentException异常。如果传递进来的初始容量 > 最大容量时,初始容量 = 最大容量。负载因子也不能小于 0 。然后进行数组的扩容,这个扩容机制也非常重要,我们后面进行探讨
    • 只带有 initialCapacity 的构造函数
    public HashMap(int initialCapacity) {
    this(initialCapacity, DEFAULT_LOAD_FACTOR);
    }
    最终也会调用到上面的构造函数,不过这个默认的负载因子就是 HashMap 的默认负载因子也就是 0.75f
    • 无参数的构造函数
    public HashMap {
    this.loadFactor = DEFAULT_LOAD_FACTOR;
    }
    默认的负载因子也就是 0.75f
    • 带有 map 的构造函数
    public HashMap(Map m) {
    this.loadFactor = DEFAULT_LOAD_FACTOR;
    putMapEntries(m, false);
    }
    带有 Map 的构造函数,会直接把外部元素批量放入 HashMap 中。
    讲一讲 HashMap put 的全过程 我记得刚毕业一年去北京面试,一家公司问我 HashMap put 过程的时候,我支支吾吾答不上来,后面痛下决心好好整。以 JDK 1.8 为基准进行分析,后面也是。先贴出整段代码,后面会逐行进行分析。
    final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
    boolean evict) {
    Node<K,V> tab; Node<K,V> p; int n, i;
    // 如果table 为 或者没有为 table 分配内存,就resize一次
    if ((tab = table) == || (n = tab.length) == 0)
    n = (tab = resize).length;
    // 指定hash值节点为空则直接插入,这个(n - 1) & hash才是表中真正的哈希
    if ((p = tab[i = (n - 1) & hash]) == )
    tab[i] = newNode(hash, key, value, );
    // 如果不为空
    else {
    Node<K,V> e; K k;
    // 计算表中的这个真正的哈希值与要插入的key.hash相比
    if (p.hash == hash &&
    ((k = p.key) == key || (key != && key.equals(k))))
    e = p;
    // 若不同的话,并且当前节点已经在 TreeNode 上了
    else if (p instanceof TreeNode)
    // 采用红黑树存储方式
    e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
    // key.hash 不同并且也不再 TreeNode 上,在链表上找到 p.next==
    else {
    for (int binCount = 0; ; ++binCount) {
    if ((e = p.next) == ) {
    // 在表尾插入
    p.next = newNode(hash, key, value, );
    // 新增节点后如果节点个数到达阈值,则进入 treeifyBin 进行再次判断
    if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
    treeifyBin(tab, hash);
    break;
    }
    // 如果找到了同 hash、key 的节点,那么直接退出循环
    if (e.hash == hash &&
    ((k = e.key) == key || (key != && key.equals(k))))
    break;
    // 更新 p 指向下一节点
    p = e;
    }
    }
    // map中含有旧值,返回旧值
    if (e != ) { // existing mapping for key
    V oldValue = https://www.360kuai.com/e.value;
    if (!onlyIfAbsent || oldValue =https://www.360kuai.com/= )
    e.value = https://www.360kuai.com/value;
    afterNodeAccess(e);
    return oldValue;
    }
    }
    // map调整次数 + 1
    ++modCount;
    // 键值对的数量达到阈值,需要扩容
    if (++size > threshold)
    resize;
    afterNodeInsertion(evict);
    return ;
    }
    首先看一下 putVal方法,这个方法是 final 的,如果你自已定义 HashMap 继承的话,是不允许你自己重写 put 方法的,然后这个方法涉及五个参数
    • hash -> put 放在桶中的位置,在 put 之前,会进行 hash 函数的计算。
    • key -> 参数的 key 值
    • value -> 参数的 value 值
    • onlyIfAbsent -> 是否改变已经存在的值,也就是是否进行 value 值的替换标志
    • evict -> 是否是刚创建 HashMap 的标志
    在调用到 putVal 方法时,首先会进行 hash 函数计算应该插入的位置
    public V put(K key, V value) {
    return putVal(hash(key), key, value, false, true);
    }
    哈希函数的源码如下
    static final int hash(Object key) {
    int h;
    return (key == ) ? 0 : (h = key.hashCode) ^ (h >>> 16);
    }
    首先先来理解一下 hash 函数的计算规则
    Hash 函数 hash 函数会根据你传递的 key 值进行计算,首先计算 key 的 hashCode值,然后再对 hashcode 进行无符号右移操作,最后再和 hashCode 进行异或 ^操作。
    ?
    >>>: 无符号右移操作,它指的是「无符号右移,也叫逻辑右移,即若该数为正,则高位补0,而若该数为负数,则右移后高位同样补0」,也就是不管是正数还是负数,右移都会在空缺位补 0 。
    ?
    在得到 hash 值后,就会进行 put 过程。
    首先会判断 HashMap 中的 Node 数组是否为 ,如果第一次创建 HashMap 并进行第一次插入元素,首先会进行数组的 resize,也就是重新分配,这里还涉及到一个resize扩容机制源码分析,我们后面会介绍。扩容完毕后,会计算出 HashMap 的存放位置,通过使用「( n - 1 ) & hash」进行计算得出。
    初始容量|看完这篇 HashMap,和面试官扯皮就没问题了
    文章图片
    然后会把这个位置作为数组的下标作为存放元素的位置。如果不为空,那么计算表中的这个真正的哈希值与要插入的 key.hash 相比。如果哈希值相同,key-value 不一样,再判断是否是树的实例,如果是的话,那么就把它插入到树上。如果不是,就执行尾插法在 entry 链尾进行插入。
    初始容量|看完这篇 HashMap,和面试官扯皮就没问题了
    文章图片
    会根据桶中元素的数量判断是链表还是红黑树。然后判断键值对数量是否大于阈值,大于的话则进行扩容。
    扩容机制 在 Java 中,数组的长度是固定的,这意味着数组只能存储固定量的数据。但在开发的过程中,很多时候我们无法知道该建多大的数组合适。好在 HashMap 是一种自动扩容的数据结构,在这种基于变长的数据结构中,扩容机制是非常重要的。
    在 HashMap 中,阈值大小为桶数组长度与负载因子的乘积。当 HashMap 中的键值对数量超过阈值时,进行扩容。HashMap 中的扩容机制是由 resize方法来实现的,下面我们就来一次认识下。(贴出中文注释,便于复制)
    final Node<K,V> resize {
    Node<K,V> oldTab = table;
    // 存储old table 的大小
    int oldCap = (oldTab == ) "/>
    文章图片
    • 如果数组长度不大于0 ,再判断扩容阈值 threshold是否大于 0 ,也就是看有无外部指定的扩容阈值,若有则使用,这里需要说明一下 threshold 何时是oldThr > 0,因为 oldThr = threshold ,这里其实比较的就是 threshold,因为 HashMap 中的每个构造方法都会调用HashMap(initCapacity,loadFactor)这个构造方法,所以如果没有外部指定 initialCapacity,初始容量使用的就是 16,然后根据this.threshold = tableSizeFor(initialCapacity);求得 threshold 的值。
    初始容量|看完这篇 HashMap,和面试官扯皮就没问题了
    文章图片
    • 否则,直接使用默认的初始容量和扩容阈值,走 else 的逻辑是在 table 刚刚初始化的时候。
    初始容量|看完这篇 HashMap,和面试官扯皮就没问题了
    文章图片
    然后会判断 newThr 是否为 0 ,笔者在刚开始研究时发现 newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);一直以为这是常量做乘法,怎么会为 0 ,其实不是这部分的问题,在于上面逻辑判断中的扩容操作,可能会导致位溢出
    导致位溢出的示例:oldCap = 2^28 次幂,threshold > 2 的三次方整数次幂。在进入到 float ft = (float)newCap * loadFactor;这个方法是 2^28 * 2^(3+n) 会直接 > 2^31 次幂,导致全部归零。
    「在扩容后需要把节点放在新扩容的数组中,这里也涉及到三个步骤」
    • 循环桶中的每个 Node 节点,判断 Node[i] 是否为空,为空直接返回,不为空则遍历桶数组,并将键值对映射到新的桶数组中。
    • 如果不为空,再判断是否是树形结构,如果是树形结构则按照树形结构进行拆分,拆分方法在 split方法中。
    • 如果不是树形结构,则遍历链表,并将链表节点按原顺序进行分组。
    初始容量|看完这篇 HashMap,和面试官扯皮就没问题了
    文章图片
    讲一讲 get 方法全过程 我们上面讲了 HashMap 中的 put 方法全过程,下面我们来看一下 get方法的过程,
    public V get(Object key) {
    Node<K,V> e;
    return (e = getNode(hash(key), key)) == "/>
    文章图片
    也就是 「tab[(n - 1) & hash]」算出的具体位置。
    HashMap 的遍历方式 HashMap 的遍历,也是一个使用频次特别高的操作
    HashMap 遍历的基类是 HashIterator,它是一个 Hash 迭代器,它是一个 HashMap 内部的抽象类,它的构造比较简单,只有三种方法,「hasNext 、 remove 和 nextNode」方法,其中 nextNode 方法是由三种迭代器实现的
    这三种迭代器就就是
    • KeyIterator,对 key 进行遍历
    • ValueIterator,对 value 进行遍历
    • EntryIterator, 对 Entry 链进行遍历
    虽然说看着迭代器比较多,但其实他们的遍历顺序都是一样的,构造也非常简单,都是使用 HashIterator中的nextNode方法进行遍历
    final class KeyIterator extends HashIterator
    implements Iterator {
    public final K next { return nextNode.key; }
    }
    final class ValueIterator extends HashIterator
    implements Iterator {
    public final V next { return nextNode.value; }
    }
    final class EntryIterator extends HashIterator
    implements Iterator<Map.Entry<K,V>> {
    public final Map.Entry<K,V> next { return nextNode; }
    }
    HashIterator 中的遍历方式
    abstract class HashIterator {
    Node<K,V> next; // 下一个 entry 节点
    Node<K,V> current; // 当前 entry 节点
    int expectedModCount; // fail-fast 的判断标识
    int index; // 当前槽
    HashIterator {
    expectedModCount = modCount;
    Node<K,V> t = table;
    current = next = ;
    index = 0;
    if (t != && size > 0) { // advance to first entry
    do {} while (index < t.length && (next = t[index++]) == );
    }
    }
    public final boolean hasNext {
    return next != ;
    }
    final Node<K,V> nextNode {
    Node<K,V> t;
    Node<K,V> e = next;
    if (modCount != expectedModCount)
    throw new ConcurrentModificationException;
    if (e == )
    throw new NoSuchElementException;
    if ((next = (current = e).next) == && (t = table) != ) {
    do {} while (index < t.length && (next = t[index++]) == );
    }
    return e;
    }
    public final void remove {...}
    }
    next 和 current 分别表示下一个 Node 节点和当前的 Node 节点,HashIterator 在初始化时会遍历所有的节点。下面我们用图来表示一下他们的遍历顺序
    初始容量|看完这篇 HashMap,和面试官扯皮就没问题了
    文章图片
    你会发现 nextNode方法的遍历方式和 HashIterator 的遍历方式一样,只不过判断条件不一样,构造 HashIterator 的时候判断条件是有没有链表,桶是否为 ,而遍历 nextNode 的判断条件变为下一个 node 节点是不是 ,并且桶是不是为 。
    HashMap 中的移除方法 HashMap 中的移除方法也比较简单了,源码如下
    public V remove(Object key) {
    Node<K,V> e;
    return (e = removeNode(hash(key), key, , false, true)) == ?
    : e.value;
    }
    final Node<K,V> removeNode(int hash, Object key, Object value,
    boolean matchValue, boolean movable) {
    Node<K,V> tab; Node<K,V> p; int n, index;
    if ((tab = table) != && (n = tab.length) > 0 &&
    (p = tab[index = (n - 1) & hash]) != ) {
    Node<K,V> node = , e; K k; V v;
    if (p.hash == hash &&
    ((k = p.key) == key || (key != && key.equals(k))))
    node = p;
    else if ((e = p.next) != ) {
    if (p instanceof TreeNode)
    node = ((TreeNode<K,V>)p).getTreeNode(hash, key);
    else {
    do {
    if (e.hash == hash &&
    ((k = e.key) == key ||
    (key != && key.equals(k)))) {
    node = e;
    break;
    }
    p = e;
    } while ((e = e.next) != );
    }
    }
    if (node != && (!matchValue || (v = node.value) == value ||
    (value != && value.equals(v)))) {
    if (node instanceof TreeNode)
    ((TreeNode<K,V>)node).removeTreeNode(this, tab, movable);
    else if (node == p)
    tab[index] = node.next;
    else
    p.next = node.next;
    ++modCount;
    --size;
    afterNodeRemoval(node);
    return node;
    }
    }
    return ;
    }
    remove 方法有很多,最终都会调用到 removeNode 方法,只不过传递的参数值不同,我们拿 remove(object) 来演示一下。
    首先会通过 hash 来找到对应的 bucket,然后通过遍历链表,找到键值相等的节点,然后把对应的节点进行删除。
    关于 HashMap 的面试题 HashMap 的数据结构 JDK1.7 中,HashMap 采用位桶 + 链表的实现,即使用链表来处理冲突,同一 hash 值的链表都存储在一个数组中。但是当位于一个桶中的元素较多,即 hash 值相等的元素较多时,通过 key 值依次查找的效率较低。
    所以,与 JDK 1.7 相比,JDK 1.8 在底层结构方面做了一些改变,当每个桶中元素大于 8 的时候,会转变为红黑树,目的就是优化查询效率。
    HashMap 的 put 过程 大致过程如下,首先会使用 hash 方法计算对象的哈希码,根据哈希码来确定在 bucket 中存放的位置,如果 bucket 中没有 Node 节点则直接进行 put,如果对应 bucket 已经有 Node 节点,会对链表长度进行分析,判断长度是否大于 8,如果链表长度小于 8 ,在 JDK1.7 前会使用头插法,在 JDK1.8 之后更改为尾插法。如果链表长度大于 8 会进行树化操作,把链表转换为红黑树,在红黑树上进行存储。
    HashMap 为啥线程不安全 HashMap 不是一个线程安全的容器,不安全性体现在多线程并发对 HashMap 进行 put 操作上。如果有两个线程 A 和 B ,首先 A 希望插入一个键值对到 HashMap 中,在决定好桶的位置进行 put 时,此时 A 的时间片正好用完了,轮到 B 运行,B 运行后执行和 A 一样的操作,只不过 B 成功把键值对插入进去了。如果 A 和 B 插入的位置(桶)是一样的,那么线程 A 继续执行后就会覆盖 B 的记录,造成了数据不一致问题。
    还有一点在于 HashMap 在扩容时,因 resize 方法会形成环,造成死循环,导致 CPU 飙高。
    HashMap 是如何处理哈希碰撞的 HashMap 底层是使用位桶 + 链表实现的,位桶决定元素的插入位置,位桶是由 hash 方法决定的,当多个元素的 hash 计算得到相同的哈希值后,HashMap 会把多个 Node 元素都放在对应的位桶中,形成链表,这种处理哈希碰撞的方式被称为链地址法。
    其他处理 hash 碰撞的方式还有 「开放地址法、rehash 方法、建立一个公共溢出区」这几种方法。
    HashMap 是如何 get 元素的 首先会检查 table 中的元素是否为空,然后根据 hash 算出指定 key 的位置。然后检查链表的第一个元素是否为空,如果不为空,是否匹配,如果匹配,直接返回这条记录;如果匹配,再判断下一个元素的值是否为 ,为空直接返回,如果不为空,再判断是否是 TreeNode实例,如果是 TreeNode 实例,则直接使用TreeNode.getTreeNode取出元素,否则执行循环,直到下一个元素为 位置。
    HashMap 和 HashTable 有什么区别 见上
    HashMap 和 HashSet 的区别 见上
    HashMap 是如何扩容的 HashMap 中有两个非常重要的变量,一个是 loadFactor,一个是threshold,loadFactor 表示的就是负载因子,threshold 表示的是下一次要扩容的阈值,当 threshold = loadFactor * 数组长度时,数组长度扩大位原来的两倍,来重新调整 map 的大小,并将原来的对象放入新的 bucket 数组中。
    HashMap 的长度为什么是 2 的幂次方 这道题我想了几天,之前和群里小伙伴们探讨每日一题的时候,问他们为什么 length%hash == (n - 1) & hash,它们说相等的前提是 length 的长度 2 的幂次方,然后我回了一句难道 length 还能不是 2 的幂次方吗?其实是我没有搞懂因果关系,因为 HashMap 的长度是 2 的幂次方,所以使用余数来判断在桶中的下标。如果 length 的长度不是 2 的幂次方,小伙伴们可以举个例子来试试。
    例如长度为 9 时候,3 & (9-1) = 0,2 & (9-1) = 0 ,都在 0 上,碰撞了;
    这样会增大 HashMap 碰撞的几率。
    HashMap 线程安全的实现有哪些 因为 HashMap 不是一个线程安全的容器,所以并发场景下推荐使用 ConcurrentHashMap,或者使用线程安全的 HashMap,使用Collections包下的线程安全的容器,比如说
    Collections.synchronizedMap(new HashMap);
    还可以使用 HashTable ,它也是线程安全的容器,基于 key-value 存储,经常用 HashMap 和 HashTable 做比较就是因为 HashTable 的数据结构和 HashMap 相同。
    上面效率最高的就是 ConcurrentHashMap。
    文章并没有叙述太多关于红黑树的构造、包含添加、删除、树化等过程,一方面是自己能力还达不到,一方面是关于红黑树的描述太过于占据篇幅,红黑树又是很大的一部分内容,所以会考虑放在后续的红黑树进行讲解。


      推荐阅读