标签:bst 解释 edm 双向 随机 fifo 可重复 new fresh
先说说,为什么要写这么一篇博客(我总是喜欢写原因)。因为最近到年底了,正好又要准备面试,所以在做各方面的技术总结。而Java集合是Java非常重要的一部分,自己前前后后也花了不少时间学习,但是一直比较零散。所以,打算趁着这个机会,来写一个总结。
由于能力有限,这方面没有足够积累,如果有什么问题,还请指出。谢谢。
集合分类,主要分为:
原本Map是打算按照 AbstractMap;SortedMap;ConcurrentMap;来分类,但是发现这个分类属于理论价值,大于使用价值,也可能是我现在层次不够吧。最后还是学着孤尽大佬在《码处高效》中那样,通过三个视图,来观察Map。具体后面阐述,我也只是阐述其中部分的Map。
论述方面,我主要会从数据组织方式(底层数据存储方式),数据处理方式(如HashMap的put操作等),特点小结结三个方面进行阐述。但是由于内容量的问题,这里并不会非常细致地阐述代码实现。
最后,由于内容量的缘故,这部分内容,我将分为两个部分。这篇博客主要论述List与Map,而Set与Queue放在另外一篇博客。
transient Object[] elementData; // non-private to simplify nested class access
ArrayList的底层是一个Object类型的数组。那么ArrayList就有着和数组一样的特点:随机查询快,但数据的插入,删除慢(因为很可能需要移动其他元素)。
public void add(int index, E element) {
// 校验index是否在0-size范围内,如果不是,抛出异常IndexOutOfBoundsException
rangeCheckForAdd(index);
// 这个操作后面有多个操作,总结一下,就是校验,判断是否需要扩容,扩容。
ensureCapacityInternal(size + 1); // Increments modCount!!
// 通过System.arraycopy操作,为新添加的元素element,在elementData数组的对应index位置,腾出空间
System.arraycopy(elementData, index, elementData, index + 1,
size - index);
// 紧跟着上面的操作elementData数组的index位置,赋值为element
elementData[index] = element;
// 数组元素数量+1
size++;
}
// 简单来说, 就是根据所给的minCapacity,计算对应容量(2的幂次方),然后校验容量,最后扩容
private void grow(int minCapacity) {
// overflow-conscious code
int oldCapacity = elementData.length;
int newCapacity = oldCapacity + (oldCapacity >> 1);
if (newCapacity - minCapacity < 0)
newCapacity = minCapacity;
if (newCapacity - MAX_ARRAY_SIZE > 0)
newCapacity = hugeCapacity(minCapacity);
// minCapacity is usually close to size, so this is a win:
elementData = Arrays.copyOf(elementData, newCapacity);
}
根据其数据组织方式,与数据处理方式,可以明确:
补充:
private static class Node<E> {
E item;
Node<E> next;
Node<E> prev;
Node(Node<E> prev, E element, Node<E> next) {
this.item = element;
this.next = next;
this.prev = prev;
}
}
LinkedList的底层是自定义的Node双向链表。那么LinkedList就有着和链表一样的特点:数据的插入与删除快,但是随机访问慢。
public void add(int index, E element) {
// 数据校验,index是否超出0-size范围
checkPositionIndex(index);
if (index == size)
// 如果插入的元素是放在最后一个,那就执行尾插入操作(因为LinkedList是有保存first与last两个Node的,所以可以直接操作)
linkLast(element);
else
// 首先通过node(index)方法,获取到当前index位置的Node元素(内部实现,依旧是遍历。不过会根据index与列表中值的比较结果,判断是从first开始遍历,还是从last开始遍历),再通过linkBefore方法,进行插入操作
linkBefore(element, node(index));
}
// LinkedList实现了Deque接口,所以需要实现其中的peek方法。获取当前数组的第一个元素,但不进行删除操作
public E peek() {
final Node<E> f = first;
return (f == null) ? null : f.item;
}
根据其数据组织方式,与数据处理方式,可以明确:
LinkedList随机查询慢(需要进行遍历查询,虽然通过列表中值,降低了一半的遍历范围,但其数据组织方式决定了它的速度慢):
测试表明,10W条数据,LinkedList的随即提取速度与ArrayList相比,存在数百倍的差距(引自《码出高效》)
LinkedList是非线程安全的(没有线程安全措施)
补充:
Vector本质与ArrayList没太大区别,底层同样是Object数组,默认大小依旧为10(不过Vector采用的是不推荐的魔法数字)。
唯一的区别,就是Vector在关键方法上添加了Sychronized关键字,来确保线程安全。
但是,由于处理得较为粗糙,以及其特点,所以性能很差,基本已经被抛弃。
这里就不再赘述了。
CopyOnWriteArrayList,作为COW容器的一员,其思想就是空间换时间,主要针对读多写少的场景。当有元素写入时,会新建一个数组,将原有数组的元素复制过来,然后进行写操作(此时数组的读操作,还是针对原数组)。在写操作完成后,会将读操作针对的数组引用,从原数组指向新数组。这样就可以在写操作进行时,不影响读操作的进行。
/** The array, accessed only via getArray/setArray. */
// 一方面通过transient避免序列化,另一方面通过volatile确保可见性,从而确保单个属性(这里是引用变量)的线程安全
private transient volatile Object[] array;
public void add(int index, E element) {
final ReentrantLock lock = this.lock;
// 进行加锁,同时只能有一个写操作
// 另外,加锁操作放在try块外,一方面是try规范(lock操作并不会发生异常,并且可以减少try块大小),另一方面是避免加锁失败,finally的释放锁出现IllegalMonitorStateException异常
lock.lock();
try {
// 获取原有数组,并赋值给elements(引用变量)
Object[] elements = getArray();
int len = elements.length;
// 数据校验
if (index > len || index < 0)
throw new IndexOutOfBoundsException("Index: "+index+
", Size: "+len);
// 下面的操作,就是对原有数组进行复制,并赋值给newElements(并且留出index位置)
Object[] newElements;
int numMoved = len - index;
if (numMoved == 0)
newElements = Arrays.copyOf(elements, len + 1);
else {
newElements = new Object[len + 1];
System.arraycopy(elements, 0, newElements, 0, index);
System.arraycopy(elements, index, newElements, index + 1,
numMoved);
}
// 设置新数组index位置的值为element,完成赋值操作
newElements[index] = element;
// 将数组引用(读操作正在读的数组引用)改为newElements
setArray(newElements);
} finally {
// 无论是否异常,都需要释放锁,
lock.unlock();
}
}
最大的特色,就是这部分了。至于remove操作,都是类似的。故不再赘述。
由于CopyOnWriteArrayList的数据组织方式与ArrayList一致,也是采用的数组,故:
补充:
推荐:高并发请求下,可以攒一下要进行的写操作(如添加,或删除,可以分开保存),然后进行addAll或removeAll操作。这样可以有效减低资源消耗。但是这个攒的度需要好好把握,就和请求合并一样,需要好好权衡。
HashMap一方面是工作中用的非常多的集合,另一方面是面试的高频(我每次面试几乎都会被人问这个)。
而HashMap,与ConcurrentHashMap一样,都存在Jdk8之前与Jdk8之后的区别。不过,我应该会以Jdk8之后为重点,毕竟现在SpringBoot2.x都要求Jdk8了。
// jdk8之前,其底层是数组+链表
// 链表底层Entry是Map的内部接口
transient Entry<K, V>[] table;
transient Node<K, V>[] table;
static class Node<K, V> implements Map.Entry<K, V> {
final int hash;
final K key;
V value;
Node<K, V> next;
}
public V put (K key, V value) {
// HashMap采用延迟创建。判断当前table是否为空。如果为空,就根据默认值15,创建一个数组,并赋值给table
if (table == EMPTY_TABLE) {
inflateTable(threshold);
}
// 数据校验
if ( key == null)
return putForNullKey(value);
// 根据key,计算哈希值
int hash = hash(key);
// 通过indexFor(内部貌似采用位运算),根据key的哈希值与数组长度,计算该K-V键值对在数组中的下标i
int i = indexFor(hash, table.length);
for (Entry<K, V> e = table[i]; e != null; e = e.next) {
Object k;
if (e.hash = hash && ((k = e.key) || key.equals(k))) {
V oldValue = e.value;
e.value = value;
e.recordAccess(this);
return oldValue;
}
}
// 记录修改次数+1,类似版本号
modCount++;
addEntry(hash, key, value, i);
return null;
}
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
// 计算key的哈希值(数据校验,key的哈希值,即其hashCode)
static final int hash(Object key) {
int h;
// 通过其hashCode的高16位与其低16位的异或运算,既降低系统性能开销,又避免高位不参加下标运算造成的碰撞
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
// 执行主要put操作
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
// 从下面这个代码块,可以看出Java8后的HashMap等,代码晦涩不少
if ((tab = table) == null || (n = tab.length) == 0)
// 如果table为null,或table.length为0(其中混杂了赋值语句),就进行进行初始化操作(通过resize()操作,这点与Spring的refresh()应用是一致的),并将其长度赋值给n(注意这里,都赋值给了局部变量,而非全局变量)
n = (tab = resize()).length;
// 根据key的hash值,计算其下标,并判断数组中对应下标位置是否为null
if ((p = tab[i = (n - 1) & hash]) == null)
// 如果对应位置为null,直接通过newNode方法(生成Node),设置数组对应i位置为对应新Node
tab[i] = newNode(hash, key, value, null);
else {
// 如果对应位置不为null,那就需要进行链表操作,进而判断是否树化(红黑树),是否扩容等
Node<K,V> e; K k;
// 通过hash与equals等,判断新添加值的key与已存在值的key是否真正相等
// 这里扩展两点:第一,判断对象是否相等,必须hashcode与equals都判断相等。前者避免两个对象只是值,但不是同一个对象(两位都是p9大佬,不代表两位就是同一个人)。后者避免哈希碰撞问题(即使是两个不同的对象的内存地址,也可能哈希值相等)
// 第二,我看到这里的时候,比较担心,会不会出现value相等,但是hashCode不同,导致这里判断为false。然后我发现包装类型,早就重写了hashCode方法,如Integer的hashCode就直接返回value
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
// 如果相等,就直接更新对应Node即可
e = p;
// 如果上面判断失败,则判断原有的数组元素,是不是已经树化(不再是Node类型,而是TreeNode,当然TreeNode依旧是由Node构成的)
else if (p instanceof TreeNode)
// 如果原有数组元素已经树化,那么就进行调用putTreeVal方法,将当前元素,置入目标红黑树中(其中涉及红黑树的旋转等操作)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
// 如果不是空,也不是相同元素,更不是红黑树,那说明那已经是一个链表(已经由多个元素),或即将成为链表(已经有一个元素,并即将添加一个新的元素)
else {
// 遍历对应链表元素,并通过binCount记录链表已存在的元素数
for (int binCount = 0; ; ++binCount) {
// 如果e=p.next()为null,说明达到了链表的最后(e的前一个值为当前链表的最后一个元素)
if ((e = p.next) == null) {
// 通过newNode获得对应p的Node,并将其设置为链表的最后一个元素
p.next = newNode(hash, key, value, null);
// 通过binCount,判断链表的长度是否达到了树化的阈值
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
// 达到阈值,则通过当前table数组与hash值,以及treefyBin方法,将当前数组位置的链表树化
treeifyBin(tab, hash);
break;
}
// 在遍历过程中,找到了相同的元素,即跳过(因为内容相同)
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
// 该赋值操作,属于链表的操作,从而继续链表遍历
p = e;
}
}
// 下面这段代码,就涉及到HashMap的putIfAbsent(也是调用putVal,只是第四个参数onlyIfAbsent不同)
// 简单来说,就是遇到key相同的元素,怎么处理。put操作是直接赋值,而putIfAbsent则是判断对应key的value是否为null,如果是null,才会赋值。否则就不变(类似Redis)
// 只不过,这个过程通过新增的第四个参数控制,从而确保同一套代码(putVal方法),实现两种不同功能(put与putIfAbsent)
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
// 版本号
++modCount;
// 一方面size前缀自增,另一方面,判断自增后的size是否超过阈值(默认16*0.75=12,数组容量*负载因子)
if (++size > threshold)
// 扩容(扩容2倍后,重排)
resize();
// 空方法,为子类保留的,如LinkedHashMap
afterNodeInsertion(evict);
return null;
}
这个方法可以算是HashMap的核心,毕竟通过这个方法,也算是摸到了HashMap的运行机制了。
流程简述:
public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
// 这里我觉得没什么说的。根据不同情况,分别从数组,红黑树,数组来获取目标元素
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
return first;
if ((e = first.next) != null) {
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}
就使用场景而言,《码出高效》给出这样一句话:
除局部方法或绝对线程安全的情形外,优先推荐ConcurrentHashMap。两者虽然性能相差无几,但后者解决了高并发下的线程安全问题。HashMap的死链问题及扩容数据丢失问题是慎用HashMap的两个主要原因。
这里,我忍不住站在Java工程师的角度,推荐《码出高效》以及配套的《阿里Java开发手册》。作为一名也算看过不少技术书籍的开发者,这两本书在我这儿,也算得上是优秀书籍了。
不过,文中也提到,这种情形,在Jdk8之后有所修复,改善。具体的,可以看看书籍(主要内容有点多)。
ConcurrentHashMap部分,我将只描述Jdk8之后的版本。
而Jdk8之前的版本,其实底层就是类似HashTable的Segament组成的数组。通过分段锁,达成线程安全。算是HashTable与HashMap的折中方案。复杂度并不是很高,不过Jdk8之后的版本,就较为复杂。首先,引入红黑树,优化存储结构。其次,取消原有的分段锁设计,采用了更高效的线程安全设计方案(利用了无锁操作CAS与头节点同步锁等)。最后,使用了更优化的方式统计集合内的元素数量(引用自《码出高效》,我还真没注意到这点)。
transient volatile Node<K,V>[] table;
static class Node<K,V> implements Map.Entry<K,V> {
final int hash;
final K key;
volatile V val;
volatile Node<K,V> next;
Node(int hash, K key, V val, Node<K,V> next) {
this.hash = hash;
this.key = key;
this.val = val;
this.next = next;
}
// 此处省略其内部方法,感兴趣的,可以自行查看
}
从上述来看,ConcurrentHashMap的底层数据组织为数组+链表。依据Jdk8后的HashMap,可以推测,在对应条件下,链表会转为红黑树结构。事实也是如此,请看下代码。
static final class TreeNode<K,V> extends Node<K,V> {
TreeNode<K,V> parent; // red-black tree links
TreeNode<K,V> left;
TreeNode<K,V> right;
TreeNode<K,V> prev; // needed to unlink next upon deletion
boolean red;
TreeNode(int hash, K key, V val, Node<K,V> next,
TreeNode<K,V> parent) {
super(hash, key, val, next);
this.parent = parent;
}
// 此处省略其内部方法,感兴趣的,可以自行查看
}
ConcurrentHashMap,与HashMap一样,其内部也有专门为红黑树服务的TreeNode。
所以,从数据组织方面来看,其实ConcurrentHashMap与同版本的HashMap,可以说就是一个模子刻出来的(毕竟都是Doug Lea带着撸的)。
两者的区别,或者说ConcurrentHashMap的精妙之处,就在于ConcurrentHashMap对多线程的考虑与处理。
其中的细节挺多的,我只阐述我对其中一些大头的理解(因为很多细节,我也不知道,也是看了大佬的总结,才发现)。
public V put(K key, V value) {
return putVal(key, value, false);
}
/** Implementation for put and putIfAbsent */
final V putVal(K key, V value, boolean onlyIfAbsent) {
// 数据校验,如果key或value为Null,直接NPE
if (key == null || value == null) throw new NullPointerException();
// 通过spread方法,计算hash值(本质还是与HashMap一样,针对hashCode进行高低16位异或计算等)
int hash = spread(key.hashCode());
// 记录链表长度
int binCount = 0;
// 这里的循环操作是为了之后的CAS操作(就是CAS的自旋操作)
for (Node<K,V>[] tab = table;;) {
Node<K,V> f; int n, i, fh;
if (tab == null || (n = tab.length) == 0)
// 同HashMap一样,如果数组为空或长度为0,则进行数组初始化操作(循环头中已经完成赋值操作)
tab = initTable();
else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
// 如果数组对应位置为null,则通过CAS操作,进行值的插入操作
if (casTabAt(tab, i, null,
new Node<K,V>(hash, key, value, null)))
break; // no lock when adding to empty bin
}
// 如果对应节点的Node.hash值为MOVED=-1
else if ((fh = f.hash) == MOVED)
// 进行resize协助操作(具体协助方式,还没研究)
tab = helpTransfer(tab, f);
else {
V oldVal = null;
synchronized (f) {
if (tabAt(tab, i) == f) {
// 如果数组对应位置(即首节点)的哈希值大于等于零(树化后等情况下,对应位置哈希值小于零)
// static final int MOVED = -1; // hash for forwarding nodes
// static final int TREEBIN = -2; // hash for roots of trees
// static final int RESERVED = -3; // hash for transient reservations
if (fh >= 0) {
// 说明此情况下,数组对应位置,存储的是链表。进行链表插入,遍历操作(具体参照HashMap的put操作)
binCount = 1;
for (Node<K,V> e = f;; ++binCount) {
K ek;
if (e.hash == hash &&
((ek = e.key) == key ||
(ek != null && key.equals(ek)))) {
oldVal = e.val;
if (!onlyIfAbsent)
e.val = value;
break;
}
Node<K,V> pred = e;
if ((e = e.next) == null) {
pred.next = new Node<K,V>(hash, key,
value, null);
break;
}
}
}
// 如果数组对应位置的元素,是树化节点(即为TreeBin实例)
else if (f instanceof TreeBin) {
Node<K,V> p;
binCount = 2;
// 调用putTreeVal方法,进行红黑树的值插入操作
if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,
value)) != null) {
oldVal = p.val;
// 判断onlylfAbsent参数,进行val设置。具体参照HashMap的put方法的对应位置解释
if (!onlyIfAbsent)
p.val = value;
}
}
}
}
// 前面的各类操作,都会计算binCount(数组当前位置存储的节点数)
if (binCount != 0) {
// 如果对应节点数超过了树化阈值TREEIFY_THRESHOLD=8
if (binCount >= TREEIFY_THRESHOLD)
// 对数组当前位置,进行树化操作
treeifyBin(tab, i);
if (oldVal != null)
return oldVal;
break;
}
}
}
// 计数
addCount(1L, binCount);
return null;
}
ConcurrentHashMap的魅力在于其线程安全的实现,有机会好好研究研究,专门写一个相关的博客。
其实,Java集合主要从两个维度分析。一个是底层数据组织方式,如链表与数组(基本就这两种,或者如HashMap那样组合两种)。另一个是线程安全方式,就是线程安全与非线程安全。
最后就是由于一些底层数据组织方式的调整,带来的循环,有序等特性。
标签:bst 解释 edm 双向 随机 fifo 可重复 new fresh
原文地址:https://www.cnblogs.com/Tiancheng-Duan/p/12153635.html