码迷,mamicode.com
首页 > 编程语言 > 详细

java集合之HashMap

时间:2018-10-01 13:21:15      阅读:228      评论:0      收藏:0      [点我收藏+]

标签:existing   insert   转移   负载   赋值   UNC   nbsp   object   hash   

Map是java中的一种数据结构,围绕着Map接口,有一系列的实现类如Hashtable、HashMap、LinkedHashMap和TreeMap。而其中HashMap和Hashtable我们平常使用的最多。

HashMap与Hashtable表面上看没有太大区别,但在一些使用细节和内部实现上有诸多微小的差异:

1、首先Hashtable的大部分方法做了同步,而HashMap没有,也就是说前者是线程安全的,后者不是;

2、Hashtable不允许key或者value使用null值,而HashMap可以;

3、在内部算法上,对key的hash算法和hash值到内存索引的映射不同;

基于HashMap的使用较为广泛,在这里我们主要分析下HashMap的实现:

在 Java8 之前, HashMap 是链表散列的数据结构,即数组和链表的结合体;从 Java8 开始,HashMap改为由数组+链表+红黑树实现,并对扩容的优化。具体结构如下图所示(图片来自网络)

 技术分享图片

接下来我们分析下具体的代码实现,首先看下HashMap的构造函数

     /**
      * 
      * @param initialCapacity 初始化大小,通过tableSizeFor计算会返回一个比给定整数大且最接近的2的幂次方整数,并赋值给threshold
      * @param loadFactor  扩容因子 默认为DEFAULT_LOAD_FACTOR 即0.75
      */
     public HashMap(int initialCapacity, float loadFactor) {
            if (initialCapacity < 0)
                throw new IllegalArgumentException("Illegal initial capacity: " +
                                                   initialCapacity);
            if (initialCapacity > MAXIMUM_CAPACITY)
                initialCapacity = MAXIMUM_CAPACITY;
            if (loadFactor <= 0 || Float.isNaN(loadFactor))
                throw new IllegalArgumentException("Illegal load factor: " +
                                                   loadFactor);
            this.loadFactor = loadFactor;
            this.threshold = tableSizeFor(initialCapacity);
        }


        public HashMap(int initialCapacity) {
            this(initialCapacity, DEFAULT_LOAD_FACTOR);
        }

        public HashMap() {
            this.loadFactor = DEFAULT_LOAD_FACTOR;
        }

        public HashMap(Map<? extends K, ? extends V> m) {
            this.loadFactor = DEFAULT_LOAD_FACTOR;
            putMapEntries(m, false);
        }

这其中loadFactor和threshold,loadFactor为负载因子,默认值是0.75;threshold是HashMap所能容纳的最大数据量的Node(键值对)个数,超过这个数目就重新resize(扩容),扩容后的HashMap容量是之前容量的两倍。

接下来我们再看HashMap的put方法,在这里我们主要关注以下几点:

1、HashMap如何根据key值计算存储元素的具体下边位置

2、put方法的实现流程;

3、扩容机制的实现;

首先我们简单分析下put方法的代码

  public V put(K key, V value) {
            //对key值做hash
            return putVal(hash(key), key, value, false, true);
        }

        /**
         * Implements Map.put and related methods
         *
         * @param hash hash for key
         * @param key the key
         * @param value the value to put
         * @param onlyIfAbsent if true, don‘t change existing value
         * @param evict if false, the table is in creation mode.
         * @return previous value, or null if none
         */
        final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                       boolean evict) {
            //继承 Map.Entry<K,V>的Node键值对数组
            Node<K,V>[] tab; Node<K,V> p; int n, i;
            //如果键值对数组为空则创建
            if ((tab = table) == null || (n = tab.length) == 0)
                n = (tab = resize()).length;
            //计算index,即元素在数组中的下标位置,判断获取值是否为空
            if ((p = tab[i = (n - 1) & hash]) == null)
                //如果为空,则赋值
                tab[i] = newNode(hash, key, value, null);
            else {//如果按下标位置已经有值,则代表出现了hash冲突,之前已经有值存储在了次下标位置
                Node<K,V> e; K k;
                //如果既不是红黑树也不是链表,那就只有是单个元素(Node<K,V>)了,那且hash值和key值相同,则直接覆盖
                if (p.hash == hash &&
                    ((k = p.key) == key || (key != null && key.equals(k))))
                    e = p;
                //如果是红黑树,则按红黑树处理
                else if (p instanceof TreeNode)
                    e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
                else {
                    //如果是链表,则按链表进行处理
                    for (int binCount = 0; ; ++binCount) {
                        if ((e = p.next) == null) {
                            p.next = newNode(hash, key, value, null);
                            //如果链表长度》=8怎转换为红黑树处理
                            if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                                treeifyBin(tab, hash);
                            break;
                        }
                        //如果元素(Node<K,V>)已经存在(key相同),则直接覆盖
                        if (e.hash == hash &&
                            ((k = e.key) == key || (key != null && key.equals(k))))
                            break;
                        p = e;
                    }
                }
                if (e != null) { // existing mapping for key
                    V oldValue = e.value;
                    if (!onlyIfAbsent || oldValue == null)
                        e.value = value;
                    afterNodeAccess(e);
                    return oldValue;
                }
            }
            ++modCount;
            //如果数组长度超过阈值,则进行扩容
            if (++size > threshold)
                resize();
            afterNodeInsertion(evict);
            return null;
        }

hash(key)方法的内部代码:

//jdk1.8源码
static final int hash(Object key) {  
     int h;
     // h = key.hashCode() 为第一步 取hashCode值
     // h ^ (h >>> 16)  为第二步 高位参与运算
     return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}

//jdk1.7源码,1.8没有,直接写在了putVal里面
static int indexFor(int h, int length) {  
     return h & (length-1);  //第三步 取模运算
}

这里的Hash算法本质上就是三步:取key的hashCode值、高位运算、取模运算

对于任意给定的对象,只要它的hashCode()返回值相同,那么程序调用方法一所计算得到的Hash码值总是相同的。我们首先想到的就是把hash值对数组长度取模运算,这样一来,元素的分布相对来说是比较均匀的。但是,模运算的消耗还是比较大的,在HashMap中是这样做的:调用方法二来计算该对象应该保存在table数组的哪个索引处。

这个方法非常巧妙,它通过h & (table.length -1)来得到该对象的保存位,而HashMap底层数组的长度总是2的n次方,这是HashMap在速度上的优化。当length总是2的n次方时,h& (length-1)运算等价于对length取模,也就是h%length,但是&比%具有更高的效率。

在JDK1.8的实现中,优化了高位运算的算法,通过hashCode()的高16位异或低16位实现的:(h = k.hashCode()) ^ (h >>> 16),主要是从速度、功效、质量来考虑的,这么做可以在数组table的length比较小的时候,也能保证考虑到高低Bit都参与到Hash的计算中,同时不会有太大的开销。

下面举例说明下,n为table的长度。

技术分享图片

接下来put方法的实现流程基本如下图所示

技术分享图片

针对扩容机制,简答的做个代码分析

 final Node<K,V>[] resize() {
            Node<K,V>[] oldTab = table;
            int oldCap = (oldTab == null) ? 0 : oldTab.length;
            int oldThr = threshold;
            int newCap, newThr = 0; //新的数组大小,新的阈值大小
            if (oldCap > 0) {
                //如果超过最大值了,就直接在赋一个最大值,其他的都不管了
                if (oldCap >= MAXIMUM_CAPACITY) {
                    threshold = Integer.MAX_VALUE;
                    return oldTab;
                }
                // 没超过最大值,就扩充为原来的2倍
                else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                         oldCap >= DEFAULT_INITIAL_CAPACITY)
                    newThr = oldThr << 1; // double threshold  //新的阈值
            }
            else if (oldThr > 0) //原数组为空且阈值大于0
                newCap = oldThr; //,就把当前阈值的大小做为数组的初始化大小,这里newThr=0所以会在下面计算新的阈值大小
            else {//原数组和默认的阈值都为空
                newCap = DEFAULT_INITIAL_CAPACITY;//新的数组
                newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);//新的阈值为默认大小*默认扩容因子
            }
            if (newThr == 0) {//计算新的阈值大小
                float ft = (float)newCap * loadFactor;
                newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                          (int)ft : Integer.MAX_VALUE);
            }
            threshold = newThr;//新的阈值
            //把原数组中的数据转移到新数组中
            @SuppressWarnings({"rawtypes","unchecked"})
                Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
            table = newTab;
            if (oldTab != null) {
                for (int j = 0; j < oldCap; ++j) {
                    Node<K,V> e;
                    if ((e = oldTab[j]) != null) {
                        oldTab[j] = null;
                        if (e.next == null)
                            newTab[e.hash & (newCap - 1)] = e;
                        else if (e instanceof TreeNode)
                            ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                        else { // preserve order
                            Node<K,V> loHead = null, loTail = null;
                            Node<K,V> hiHead = null, hiTail = null;
                            Node<K,V> next;
                            do {
                                next = e.next;
                                if ((e.hash & oldCap) == 0) {
                                    if (loTail == null)
                                        loHead = e;
                                    else
                                        loTail.next = e;
                                    loTail = e;
                                }
                                else {
                                    if (hiTail == null)
                                        hiHead = e;
                                    else
                                        hiTail.next = e;
                                    hiTail = e;
                                }
                            } while ((e = next) != null);
                            if (loTail != null) {
                                loTail.next = null;
                                newTab[j] = loHead;
                            }
                            if (hiTail != null) {
                                hiTail.next = null;
                                newTab[j + oldCap] = hiHead;
                            }
                        }
                    }
                }
            }
                //返回新数组
            return newTab;
        }

从上面我们可以看出,相比JDK1.8的HashMap从以下几个方面保证了数据存储的高效:

1、优化的hash算法,好的hash算法,能够极大降低hash冲突,保证元素分布均匀,尽量保证一个hahs地址只保存单个元素,可以直接获取,提高性能。

2、对扩容进行了优化,引入红黑树,提高了查找元素位置的效率,特别是在数据量较大,hash冲突较多时;

小结

(1) 扩容是一个特别耗性能的操作,所以当程序员在使用HashMap的时候,估算map的大小,初始化的时候给一个大致的数值,避免map进行频繁的扩容。

(2) 负载因子是可以修改的,也可以大于1,但是建议不要轻易修改,除非情况非常特殊。

(3) HashMap是线程不安全的,不要在并发的环境中同时操作HashMap,建议使用ConcurrentHashMap。

(4) JDK1.8引入红黑树大程度优化了HashMap的性能。

参考资料 : 美团点评技术团队 Java 8系列之重新认识HashMap https://zhuanlan.zhihu.com/p/21673805

java集合之HashMap

标签:existing   insert   转移   负载   赋值   UNC   nbsp   object   hash   

原文地址:https://www.cnblogs.com/dafanjoy/p/9726757.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!