标签:导致 rem 情况下 eve offer runnable -- jdk 实现
ThreadPoolExecutor是JDK内置的线程池实现类,最初随JDK1.5发布。最近花了点时间看了下ThreadPoolExecutor的源码,JDK版本是JDK1.8.0_71。
@startuml
class LinkedBlockingQueue
class SynchronousQueue
class Thread
class Worker
interface BlockingQueue
interface ThreadFactory
class ThreadPoolExecutor
abstract class AbstractExecutorService
interface ExecutorService
interface Executor
Executor <|-- ExecutorService
ExecutorService <|.. AbstractExecutorService
AbstractExecutorService <|-- ThreadPoolExecutor
ThreadPoolExecutor o-- ThreadFactory
ThreadPoolExecutor o-- BlockingQueue
ThreadPoolExecutor o-- Worker
BlockingQueue <|-- SynchronousQueue
BlockingQueue <|-- LinkedBlockingQueue
Worker o-- Thread
ThreadFactory <|-- Executors.DefaultThreadFactory
@enduml
上面这张图展示了ThreadPoolExecutor的一个大致的类结构。
ThreadPoolExecutor当然依赖很多类,但最主要的还是三个大类ThreadFactory、BlockingQueue、Thread:
JDK在Executors类里面提供了若干工厂方法,可以方便地创建线程池。其中和ThreadPoolExecutor关联的工厂方法有:
ScheduledThreadPoolExecutor是ThreadPoolExecutor的子类,可以实现周期性的执行任务,这里暂不涉及。
这些工厂方法虽然方便,但是在业界被吐槽。《阿里Java编码规范》指出这些工厂方法的没什么可变参数,没什么调优的余地,而且自身的参数也不直观。试想一下,如果CachedThreadPool遇到密集的IO请求任务时,线程不断创建,最后会不会内存溢出呢?对于FixedThreadPool,如果任务量并不大,时刻保持固定数量的线程是不是有点浪费资源呢?所以说,创建线程池的最好的方法还是直接用ThreadPoolExecutor的构造器方法。
ThreadPoolExecutor的构造器有这些参数:
ThreadPoolExecutor把所管理的线程分为两类。一类是核心线程,一类是非核心线程。
当一个ThreadPoolExecutor刚刚创建出来的时候,里面没有任何正在运行的线程。当开始提交任务的时候,线程池会首先创建核心线程。即是当前有闲置线程,如果线程总数低于corePoolSize,那么依然会创建新的线程来运行任务。这个阶段可以视为线程池处于“热身”阶段。ThreadPoolExecutor也提供了prestartCoreThread、ensurePrestart、prestartAllCoreThreads三个方法来手动实现“无任务热身”。
当线程总数达到corePoolSize同时所有线程都在运行时,继续提交的任务,就会交给workQueue来处理。其实调用的就是workQueue的offer方法。通常是将任务留在队列里面,开始排队。
随着任务持续提交,当队列中任务达到最大值的时候,线程池开始创建新的线程,来处理队列中的任务。随着线程不增加,当线程总数达到maximumPoolSize时,继续提交的任务会被线程池拒绝,抛出RejectedExecutionException运行时异常。默认情况下,异常交由任务提交方来处理。但是,用户也可以自定义RejectedExecutionHandler来统一处理该异常。
当任务处理完毕后,线程就会闲置起来。一直闲置着当然不是个事儿。线程会闲置keepAliveTime时间,随后销毁回收。
默认情况下,核心线程不会因为闲置超时而被回收。但这可以通过allowCoreThreadTimeOut方法来修改设置。
总的来讲,ThreadPoolExecutor会积极创建核心线程,对于非核心线程则是消极创建。
保持足够数量的核心线程是出于及时响应任务提交的需要。这个很好理解。
但是,消极创建非核心线程就不好理解了。我一直觉得,池内线程的数量应该与队列里的任务数量保持一种台阶式的准线性关系比较好。随着队列任务的增加,逐渐增加线程数量,这样系统能够保持在一个稳定的状态,比来回变化的线程数量和任务数量,应当更有利于GC的表现。当然了,这一块一直没有真正的去测试一下,就留作以后的一个课题吧。
这里说下我觉得值得注意的几点。
ThreadPoolExecutor对象有五个运行状态,使用int来表示:
状态 | 二进制数值 | 意义 |
---|---|---|
RUNNING | 11100000000000000000000000000000 | 正常运行 |
SHUTDOWN | 00000000000000000000000000000000 | 不再接受新任务,但仍然在处理队列中的任务 |
STOP | 00100000000000000000000000000000 | 不接受新任务,不处理队列任务,终止正在处理的任务 |
TIDYING | 01000000000000000000000000000000 | 所有任务终止,线程数量归零 |
TERMINATED | 01100000000000000000000000000000 | terminated()方法执行完毕 |
Java中整形变量最大是32个bit。ThreadPoolExecutor使用了最高的3个bit来表示当前线程池的状态,低位的29个bit用来表示当前池内的线程数。所以说,ThreadPoolExecutor支持的最大线程数为2^29=536_870_911。5亿多,想来应该是够用了。
ThreadPoolExecutor使用一个AtomicInteger变量来维护线程池状态。使用原子类型可以保证该变量能够高效的并发修改(相比于锁对象)并及时发布(这个有点类似于volatile的作用)。
ThreadPoolExecutor通过位的求或、求与、求反来实现对线程池状态和线程数量的查询。位运算,相比于算术运算,有更好的执行效率。这个可以好好研究下。
ThreadPoolExecutor对象调用私有的addWorker方法来创建线程。
这个方法的内部最先是一个两层嵌套的for循环(labeled for-loop)。
private boolean addWorker(Runnable firstTask, boolean core) {
retry:
for (;;) {
int c = ctl.get();
int rs = runStateOf(c);
// Check if queue empty only if necessary.
if (rs >= SHUTDOWN &&
! (rs == SHUTDOWN &&
firstTask == null &&
! workQueue.isEmpty()))
return false;
for (;;) {
int wc = workerCountOf(c);
if (wc >= CAPACITY ||
wc >= (core ? corePoolSize : maximumPoolSize))
return false;
if (compareAndIncrementWorkerCount(c))
break retry;
c = ctl.get(); // Re-read ctl
if (runStateOf(c) != rs)
continue retry;
// else CAS failed due to workerCount change; retry inner loop
}
}
...
}
外部循环带有一个retry
标签,而内部循环可以是正常退出,也可以是在外层循环框架下执行break、continue动作。这个语法很少用到,但在某些场景下会很有用,值得记一笔。
其实观察一下内层循环里,要想能够打破循环,继续执行下面的内容,必须成功的完成函数compareAndIncrementWorkerCount调用。这个方法是对线程池状态变量的原子化替换。多个外部线程同时调用该函数的时候,有且只会有一个线程成功执行,然后继续增加内部线程。成功完成原子量变更的前提是,从读取初始值、完成新值计算到准备变更之间,该原子量不能有变化,否则就会重现执行外层循环。
这实际上是一种乐观的无锁算法。
乐观的意思是,函数的执行倾向于认为变量的并发修改频率不大,自己总能足够快的完成函数执行。
无锁,就很好理解了。各个线程不需要阻塞在锁对象上。如果一次执行失败,那就再来一次好了。少量for循环的开销比若干线程的阻塞和唤醒所带来的开销划算多了。
其实注意观察一下,这个方法和ReentrantLock类的tryLock方法都是乐观算法。两者共同的套路是,无限循环中包含一个试错条件,也就是使用一个原子变量的CAS(Coompare & Swap)操作作为成功与否的标记。如果成功,就会退出循环;如果失败,就会再循环一次。
在并发量不够高的场景下,无阻塞算法可以显著降低同步开销,与使用锁的算法相比,有更高的吞吐量。但是,如果并发量极高的时候,有锁反而更好。因为在后者场景下,无阻塞算法会有很多轮无效for循环,反而不如有序地获取锁来的高效。其实,这个可以用道路交通来类比:在车流量不大的路口,环岛的通过率更高;但当车流量很大的时候,红绿灯的效率更高。
ThreadPoolExecutor对象内部有一把全局锁。这把锁会在,调用内部线程增加或者回收的时候调用,也会在读取线程池状态的时候调用。因此要注意这之间内部存在的阻塞关系。
此外,设想一种场景。所有线程全都在运行,队列满负荷运行,外部还有任务持续提交。如果此时线程运行中大量的抛异常退出,那么线程池会不停的创建线程、处理线程退出,这个行为就会被全局锁阻塞,导致线程池的低效运转。
要小心这种情况的发生。
ThreadPoolExecutor对象通过BlockingQueue获取任务。正如其名,BlockingQueue是一种阻塞式的队列。ArrayBlockingQueue、LinkedBlockQueue、PriorityBlockingQueue使用显式的锁对象,保护每一次队列任务的读取和放置;而SynchronousQueue则是将访问线程排队park起来,然后依次唤醒(unpark)提交或者获取任务。
频繁的读取BlockingQueue里的任务,会造成池内线程消耗大量时间在队列内部的同步机制上。因此,为了降低同步开销的比例,队列内部的任务不易快速返回。而出于吞吐量的考虑,队列内部的任务又不易消耗过长时间。这两者需要小心的平衡。
JDK1.7引入了新的LinkedTransferQueue据说有更好的并发效率。这个随后得花时间看看。
尽管ThreadPoolExecutor对象可以在对象运行过程中,实时地修改corePoolSize、keepAliveTime等参数。但是修改这些参数,会在内部interupt所有线程,包括正在运行的线程。通常情况下,一般的业务逻辑不大会特别的处理InterruptedException。所以应该尽量避免在运行时修改线程池设置参数。
标签:导致 rem 情况下 eve offer runnable -- jdk 实现
原文地址:https://www.cnblogs.com/rim99/p/9142265.html