标签:head eva 计算方法 工作 循环 int tor exception 结束
最近工作不是太忙,准备再读读一些源码,想来想去,还是先从JDK的源码读起吧,毕竟很久不去读了,很多东西都生疏了。当然,还是先从炙手可热的HashMap,每次读都会有一些收获。当然,JDK8对HashMap有一次优化。
我们首先看到的,应该是它的一些基本参数,这对于我们了解HashMap有一定的作用。他们分别是:
参数 | 说明 |
---|---|
capacity | 容量,默认为16,最大为2^30 |
loadFactor | 加载因子,默认0.75 |
threshold | resize的阈值,capacity * loadFactor,元素数量达到这个值后就必须扩容 |
treeify_threshold | 红黑树的阈值,数组中的某个节点下挂的节点数大于这个值之后,节点的数据结构就会从链表变为红黑树 |
我们知道,HashMap底层是通过数组+链表来实现的。具体的图网上有很多,我们主要看看几个重要的方法。
他的构造方法,最本质的构造方法是:
1 public HashMap(int initialCapacity, float loadFactor) { 2 if (initialCapacity < 0) 3 throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity); 4 if (initialCapacity > MAXIMUM_CAPACITY) 5 initialCapacity = MAXIMUM_CAPACITY; 6 if (loadFactor <= 0 || Float.isNaN(loadFactor)) 7 throw new IllegalArgumentException("Illegal load factor: " + 8 loadFactor); 9 this.loadFactor = loadFactor; 10 this.threshold = tableSizeFor(initialCapacity); 11 }
前面几行就是做一些基本的检查,我们看到,HashMap的最大容量是<u>MAXIMUM_CAPACITY</u>,也就是2^30,我们日常使用时可能达不到这样的容量,但是如果真的需要在Map存储这么多的数据,还是建议存在其他的地方吧。当然,最后一行中时为了计算下一次resize的容量阈值,也就是计算出下一次resize的threshold。
这个方法较简单,直接返回的是一个size的值,这个参数的含义就是当前Map中存储的KV对的数量,而不是整个Map的容量。
1 public int size() { 2 return size; 3 }
这个方法是HashMap中比较重要的一个方法,我们仔细分析一下。
首先,方法的入口是这个,也就是我们经常使用的就是这个方法:
1 public V put(K key, V value) { 2 return putVal(hash(key), key, value, false, true); 3 }
我们主要看的,就是put的整个过程。
首先就是对我们传入的key,进行hash计算。
1 static final int hash(Object key) { 2 int h; 3 return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16); 4 }
从这个方法,我们可以看到,HashMap的key是可以为null的,如果是null的话,那么我们的hash方法返回的hash值是0。
如果key不是null,那么调用的是HashMap本身的hashCode方法,也就是我们的bean中自定义的hashCode()。不要以为这样就结束了。我们一般来说,一个key的hash值的范围也就是int的范围(从-2147483648到2147483648),但是HashMap的容量是有限的,必须把hash值能够分散到HashMap的数组中去。HashMap为了key在数组中更加分散,还会进行一次计算,也就是我们看到的第二行的方法。具体这块是如何分配均匀的,可以参考这篇文章。
这个方法就是将KV放到对应的桶中。这个方法的过程,比较清晰。
1 final V putVal(int hash, K key, V value, boolean onlyIfAbsent, 2 boolean evict) { 3 Node<K,V>[] tab; Node<K,V> p; int n, i; 4 if ((tab = table) == null || (n = tab.length) == 0) 5 //如果之前的数组为空,那么新建一个默认的数组 6 n = (tab = resize()).length; 7 if ((p = tab[i = (n - 1) & hash]) == null) 8 //如果hash值计算出来在数组中的位置上,没有元素,那么直接插入到数组中 9 tab[i] = newNode(hash, key, value, null); 10 else { 11 Node<K,V> e; K k; 12 if (p.hash == hash && 13 ((k = p.key) == key || (key != null && key.equals(k)))) 14 //如果算出的hash存在,而且kv完全一致的话,那么目前什么也不做 15 e = p; 16 else if (p instanceof TreeNode) 17 //如果数组中的元素是红黑树,那么将kv插入到红黑树中 18 e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); 19 else { 20 for (int binCount = 0; ; ++binCount) { 21 if ((e = p.next) == null) { 22 //如果hash的桶中,已经存在了一个链表,那么新增一个节点,放到链表的尾部 23 p.next = newNode(hash, key, value, null); 24 //如果链表的长度大于树化的阈值,那么将链表转为红黑树 25 if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st 26 treeifyBin(tab, hash); 27 break; 28 } 29 if (e.hash == hash && 30 ((k = e.key) == key || (key != null && key.equals(k)))) 31 break; 32 p = e; 33 } 34 } 35 //如果当前数组中存在相同的kv,那么根据是否替换来判断,如果不替换,那么就不替换 36 if (e != null) { // existing mapping for key 37 V oldValue = e.value; 38 if (!onlyIfAbsent || oldValue == null) 39 e.value = value; 40 afterNodeAccess(e); 41 return oldValue; 42 } 43 } 44 ++modCount; 45 if (++size > threshold) 46 //如果空间需要进行扩容,那么进行resize操作 47 resize(); 48 afterNodeInsertion(evict); 49 return null; 50 }
至此,putVal的方法过程基本上清楚了,但是里面有个非常重要的方法,就是resize,我们下面就进入resize方法,看看到底是如何扩容的。
这个过程是HashMap扩容的过程,也是需要重点理解的一块。 我们首先看下第一部分。
1 Node<K,V>[] oldTab = table; 2 int oldCap = (oldTab == null) ? 0 : oldTab.length; 3 int oldThr = threshold; 4 int newCap, newThr = 0; 5 if (oldCap > 0) { 6 //如果目前容量已经是最大容量,那么扩容阈值为int的最大值,所有的节点都不需要移动 7 if (oldCap >= MAXIMUM_CAPACITY) { 8 threshold = Integer.MAX_VALUE; 9 return oldTab; 10 } 11 //如果oldCap*2小于最大容量,并且oldCap>=16,扩容为2倍,扩容阈值也*2 12 else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && 13 oldCap >= DEFAULT_INITIAL_CAPACITY) 14 newThr = oldThr << 1; 15 } 16 else if (oldThr > 0) // initial capacity was placed in threshold 17 newCap = oldThr; 18 else {// 默认值 19 newCap = DEFAULT_INITIAL_CAPACITY; 20 newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); 21 } 22 if (newThr == 0) {//计算新的扩容阈值 23 float ft = (float)newCap * loadFactor; 24 newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? 25 (int)ft : Integer.MAX_VALUE); 26 } 27 threshold = newThr;
这个过程,主要是确定新的容量和扩容阈值。
1 if (oldTab != null) { 2 for (int j = 0; j < oldCap; ++j) {//遍历老的数组 3 Node<K,V> e; 4 if ((e = oldTab[j]) != null) { 5 oldTab[j] = null; 6 if (e.next == null)//如果老的链表,只有一个KV,直接将这个KV放到新的数组链表中 7 newTab[e.hash & (newCap - 1)] = e; 8 else if (e instanceof TreeNode)//如果老的是红黑树,需要将红黑树中的每个元素都拆分到新的数组和链表/红黑树中 9 ((TreeNode<K,V>)e).split(this, newTab, j, oldCap); 10 else { // 如果节点是链表,而且不止一个KV的情况下,需要对链表进行处理,处理的过程,光看代码理解起来较困难,需要通过例子来理解 11 Node<K,V> loHead = null, loTail = null; 12 Node<K,V> hiHead = null, hiTail = null; 13 Node<K,V> next; 14 do { 15 next = e.next; 16 if ((e.hash & oldCap) == 0) { 17 if (loTail == null) 18 loHead = e; 19 else 20 loTail.next = e; 21 loTail = e; 22 } 23 else { 24 if (hiTail == null) 25 hiHead = e; 26 else 27 hiTail.next = e; 28 hiTail = e; 29 } 30 } while ((e = next) != null); 31 if (loTail != null) { 32 loTail.next = null; 33 newTab[j] = loHead; 34 } 35 if (hiTail != null) { 36 hiTail.next = null; 37 newTab[j + oldCap] = hiHead; 38 } 39 } 40 } 41 } 42 }
我们需要知道,坐标点的计算方法是e.hash & (cap-1)。
没有进行扩容时,假设原来的cap=16,也就是默认值,扩容后容量为32。对于hash值为5(二进制为0000 0101)和21(二进制为0001 0101)的元素来讲,计算坐标,也就是和15(二进制为0000 1111)计算后的坐标点都是5,会落到同一个链表中。
但是扩容后,需要求与的变成了31(二进制为0001 1111),算出来的坐标点分别为5和21,第二个坐标点增加了oldCap的长度。
此时再看e.hash & oldCap的计算结果,也就是将5和21和16(二进制为0001 0000)求与,得到的结果分别是0和16(!=0)。可以看到,当e.hash & oldCap得到0时,坐标不需要进行变动,也就是不需要在数组中的位置不需要移动。如果结果不为0,需要在原来坐标的位置,增加oldCap。
这里的lo和hi也就是两个链表,表示的是低位和高位的两条链表。
我们都知道,HashMap不是线程安全的。这块主要体现在两块:
这两块都没有加锁,所以可能会导致多线程执行时,出现数据被覆盖的问题。
这个问题主要出现在resize的过程中,多线程都探测到需要resize时,将链表元素rehash过程中,可能会导致死循环。这个问题参考这篇文章。
至此,源码分析基本结束,我们还可以思考,为什么cap必须是2的幂次,我们应该如何正确的初始化HashMap等。
标签:head eva 计算方法 工作 循环 int tor exception 结束
原文地址:https://www.cnblogs.com/lfs2640666960/p/10371955.html