Java 并发面试三
Java 并发面试三
Java 线程池
【简单】为什么要用线程池?
顾名思义,线程池就是管理一系列线程的资源池。当有任务要处理时,直接从线程池中获取线程来处理,处理完之后线程并不会立即被销毁,而是等待下一个任务。
池化技术想必大家已经屡见不鲜了,线程池、数据库连接池、HTTP 连接池等等都是对这个思想的应用。池化技术的思想主要是为了减少每次获取资源的消耗,提高对资源的利用率。
线程池提供了一种限制和管理资源(包括执行一个任务)的方式。 每个线程池还维护一些基本统计信息,例如已完成任务的数量。
这里借用《Java 并发编程的艺术》提到的来说一下使用线程池的好处:
- 降低资源消耗。通过重复利用已创建的线程降低线程创建和销毁造成的消耗。
- 提高响应速度。当任务到达时,任务可以不需要等到线程创建就能立即执行。
- 提高线程的可管理性。线程是稀缺资源,如果无限制的创建,不仅会消耗系统资源,还会降低系统的稳定性,使用线程池可以进行统一的分配,调优和监控。
【简单】Java 创建线程池有哪些方式?
Java 提供了多种创建线程池的方法,主要通过 java.util.concurrent.Executors
工厂类和直接使用 ThreadPoolExecutor
构造函数来实现。
- 简单场景使用
Executors
工厂方法 - 需要精细控制时使用
ThreadPoolExecutor
构造器 - 注意根据任务类型选择合适的线程池类型
- 避免使用无界队列以防内存溢出
(1)通过 Executors 工厂方法
Executors
类中提供了几种内置的 ThreadPoolExecutor
实现:
FixedThreadPool
:固定线程数量的线程池。该线程池中的线程数量始终不变。当有一个新的任务提交时,线程池中若有空闲线程,则立即执行。若没有,则新的任务会被暂存在一个任务队列中,待有线程空闲时,便处理在任务队列中的任务。SingleThreadExecutor
: 只有一个线程的线程池。若多余一个任务被提交到该线程池,任务会被保存在一个任务队列中,待线程空闲,按先入先出的顺序执行队列中的任务。CachedThreadPool
: 可根据实际情况调整线程数量的线程池。线程池的线程数量不确定,但若有空闲线程可以复用,则会优先使用可复用的线程。若所有线程均在工作,又有新的任务提交,则会创建新的线程处理任务。所有线程在当前任务执行完毕后,将返回线程池进行复用。ScheduledThreadPool
:给定的延迟后运行任务或者定期执行任务的线程池。
(2)直接使用 ThreadPoolExecutor
构造器
new ThreadPoolExecutor(
int corePoolSize,
int maximumPoolSize,
long keepAliveTime,
TimeUnit unit,
BlockingQueue<Runnable> workQueue,
ThreadFactory threadFactory,
RejectedExecutionHandler handler
);
- 提供更精细的控制参数
- 可以自定义线程工厂和拒绝策略
(3)ForkJoinPool
(JDK7+)
ForkJoinPool forkJoinPool = new ForkJoinPool(int parallelism);
- 适用于分治算法和并行任务
- 使用工作窃取 (work-stealing) 算法
【中等】Java 线程池有哪些核心参数?各有什么作用?
ThreadPoolExecutor
有四个构造方法,前三个都是基于第四个实现。第四个构造方法定义如下:
public ThreadPoolExecutor(int corePoolSize,// 线程池的核心线程数量
int maximumPoolSize,// 线程池的最大线程数
long keepAliveTime,// 当线程数大于核心线程数时,多余的空闲线程存活的最长时间
TimeUnit unit,// 时间单位
BlockingQueue<Runnable> workQueue,// 任务队列,用来储存等待执行任务的队列
ThreadFactory threadFactory,// 线程工厂,用来创建线程,一般默认即可
RejectedExecutionHandler handler// 拒绝策略,当提交的任务过多而不能及时处理时,我们可以定制策略来处理任务
) {// 略}
参数说明:
corePoolSize
:表示线程池保有的最小线程数。maximumPoolSize
:表示线程池允许创建的最大线程数。- 如果队列满了,并且已创建的线程数小于最大线程数,则线程池会再创建新的线程执行任务。
- 值得注意的是:如果使用了无界的任务队列这个参数就没什么效果。
keepAliveTime & unit
:表示非核心线程存活时间。如果一个线程空闲了keepAliveTime & unit
这么久,而且线程池的线程数大于corePoolSize
,那么这个空闲的线程就要被回收了。workQueue
:等待执行的任务队列。用于保存等待执行的任务的阻塞队列。 可以选择以下几个阻塞队列。ArrayBlockingQueue
:基于数组的有界阻塞队列。LinkedBlockingQueue
:基于链表的无界阻塞队列,可能导致 OOM。SynchronousQueue
:不保存任务,直接新建一个线程来执行任务(需要有可用线程,否则拒绝)。DelayedWorkQueue
:延迟阻塞队列。PriorityBlockingQueue
:具有优先级的无界阻塞队列。
threadFactory
:线程工厂。线程工程用于自定义如何创建线程。handler
:拒绝策略。它是RejectedExecutionHandler
类型的变量。当队列和线程池都满了,说明线程池处于饱和状态,那么必须采取一种策略处理提交的新任务。线程池支持以下策略:AbortPolicy
:默认策略,丢弃任务并抛出异常,直接抛出RejectedExecutionException
。DiscardPolicy
:丢弃任务但不抛出异常。DiscardOldestPolicy
:丢弃队列最老的任务,然后重新尝试提交。CallerRunsPolicy
:提交任务的线程自己去执行该任务。- 如果以上策略都不能满足需要,也可以通过实现
RejectedExecutionHandler
接口来定制处理策略。如记录日志或持久化不能处理的任务。
合理配置这些参数可以优化线程池的性能和稳定性,避免 OOM 或任务丢失。
【中等】Java 线程池的工作原理是什么?
线程池的工作流程遵循 任务提交 → 线程分配 → 队列管理 → 拒绝处理 机制:
- 提交任务:调用
execute(Runnable)
或submit(Callable)
提交任务。 - 线程分配逻辑
- 核心线程可用 → 立即执行任务(即使有空闲线程也会优先创建新线程直到
corePoolSize
)。 - 核心线程已满 → 任务进入任务队列(
workQueue
)等待。 - 队列已满 → 创建新线程(不超过
maximumPoolSize
)。 - 线程数达
maximumPoolSize
且队列满 → 触发拒绝策略(RejectedExecutionHandler
)。
- 核心线程可用 → 立即执行任务(即使有空闲线程也会优先创建新线程直到
- 线程回收:非核心线程在空闲超过
keepAliveTime
后被回收,核心线程默认常驻(除非设置allowCoreThreadTimeOut=true
)。
线程分配和队列管理源码
默认情况下,创建线程池之后,线程池中是没有线程的,需要提交任务之后才会创建线程。提交任务可以使用 execute
方法,它是 ThreadPoolExecutor
的核心方法,通过这个方法可以向线程池提交一个任务,交由线程池去执行。
// 用于控制线程池的运行状态和线程池中的有效线程数量
private final AtomicInteger ctl = new AtomicInteger(ctlOf(RUNNING, 0));
public void execute(Runnable command) {
if (command == null)
throw new NullPointerException();
// 获取 ctl 中存储的线程池状态信息
int c = ctl.get();
// 线程池执行可以分为 3 个步骤
// 1. 若工作线程数小于核心线程数,则尝试启动一个新的线程来执行任务
if (workerCountOf(c) < corePoolSize) {
if (addWorker(command, true))
return;
c = ctl.get();
}
// 2. 如果任务可以成功地加入队列,还需要再次确认是否需要添加新的线程(因为可能自从上次检查以来已经有线程死亡)或者检查线程池是否已经关闭
// -> 如果是后者,则可能需要回滚入队操作;
// -> 如果是前者,则可能需要启动新的线程
if (isRunning(c) && workQueue.offer(command)) {
int recheck = ctl.get();
if (!isRunning(recheck) && remove(command))
reject(command);
else if (workerCountOf(recheck) == 0)
addWorker(null, false);
}
// 如果任务无法加入队列,则尝试添加一个新的线程
// 如果添加新线程失败,说明线程池已经关闭或者达到了容量上限,此时将拒绝该任务
else if (!addWorker(command, false))
reject(command);
}
execute
方法工作流程如下:
- 如果
workerCount < corePoolSize
,则创建并启动一个线程来执行新提交的任务; - 如果
workerCount >= corePoolSize
,且线程池内的阻塞队列未满,则将任务添加到该阻塞队列中; - 如果
workerCount >= corePoolSize && workerCount < maximumPoolSize
,且线程池内的阻塞队列已满,则创建并启动一个线程来执行新提交的任务; - 如果
workerCount >= maximumPoolSize
,并且线程池内的阻塞队列已满,则根据拒绝策略来处理该任务,默认的处理方式是直接抛异常。

线程池任务状态
ThreadPoolExecutor
有以下重要字段:
private final AtomicInteger ctl = new AtomicInteger(ctlOf(RUNNING, 0));
private static final int COUNT_BITS = Integer.SIZE - 3;
private static final int CAPACITY = (1 << COUNT_BITS) - 1;
// runState is stored in the high-order bits
private static final int RUNNING = -1 << COUNT_BITS;
private static final int SHUTDOWN = 0 << COUNT_BITS;
private static final int STOP = 1 << COUNT_BITS;
private static final int TIDYING = 2 << COUNT_BITS;
private static final int TERMINATED = 3 << COUNT_BITS;
ctl
用于控制线程池的运行状态和线程池中的有效线程数量。它包含两部分的信息:
- 线程池的运行状态 (
runState
) - 线程池内有效线程的数量 (
workerCount
) - 可以看到,
ctl
使用了Integer
类型来保存,高 3 位保存runState
,低 29 位保存workerCount
。COUNT_BITS
就是 29,CAPACITY
就是 1 左移 29 位减 1(29 个 1),这个常量表示workerCount
的上限值,大约是 5 亿。
线程池一共有五种运行状态:
RUNNING
(运行状态)。接受新任务,并且也能处理阻塞队列中的任务。SHUTDOWN
(关闭状态)。不接受新任务,但可以处理阻塞队列中的任务。- 在线程池处于
RUNNING
状态时,调用shutdown
方法会使线程池进入到该状态。 finalize
方法在执行过程中也会调用shutdown
方法进入该状态。
- 在线程池处于
STOP
(停止状态)。不接受新任务,也不处理队列中的任务。会中断正在处理任务的线程。在线程池处于RUNNING
或SHUTDOWN
状态时,调用shutdownNow
方法会使线程池进入到该状态。TIDYING
(整理状态)。如果所有的任务都已终止了,workerCount
(有效线程数) 为 0,线程池进入该状态后会调用terminated
方法进入TERMINATED
状态。TERMINATED
(已终止状态)。在terminated
方法执行完后进入该状态。默认terminated
方法中什么也没有做。进入TERMINATED
的条件如下:- 线程池不是
RUNNING
状态; - 线程池状态不是
TIDYING
状态或TERMINATED
状态; - 如果线程池状态是
SHUTDOWN
并且workerQueue
为空; workerCount
为 0;- 设置
TIDYING
状态成功。
- 线程池不是

在 execute
方法中,多次调用 addWorker
方法。addWorker
这个方法主要用来创建新的工作线程,如果返回 true 说明创建和启动工作线程成功,否则的话返回的就是 false。
// 全局锁,并发操作必备
private final ReentrantLock mainLock = new ReentrantLock();
// 跟踪线程池的最大大小,只有在持有全局锁 mainLock 的前提下才能访问此集合
private int largestPoolSize;
// 工作线程集合,存放线程池中所有的(活跃的)工作线程,只有在持有全局锁 mainLock 的前提下才能访问此集合
private final HashSet<Worker> workers = new HashSet<>();
//获取线程池状态
private static int runStateOf(int c) { return c & ~CAPACITY; }
//判断线程池的状态是否为 Running
private static boolean isRunning(int c) {
return c < SHUTDOWN;
}
/**
* 添加新的工作线程到线程池
* @param firstTask 要执行
* @param core 参数为 true 的话表示使用线程池的基本大小,为 false 使用线程池最大大小
* @return 添加成功就返回 true 否则返回 false
*/
private boolean addWorker(Runnable firstTask, boolean core) {
retry:
for (;;) {
//这两句用来获取线程池的状态
int c = ctl.get();
int rs = runStateOf(c);
// Check if queue empty only if necessary.
if (rs >= SHUTDOWN &&
! (rs == SHUTDOWN &&
firstTask == null &&
! workQueue.isEmpty()))
return false;
for (;;) {
//获取线程池中工作的线程的数量
int wc = workerCountOf(c);
// core 参数为 false 的话表明队列也满了,线程池大小变为 maximumPoolSize
if (wc >= CAPACITY ||
wc >= (core ? corePoolSize : maximumPoolSize))
return false;
//原子操作将 workcount 的数量加 1
if (compareAndIncrementWorkerCount(c))
break retry;
// 如果线程的状态改变了就再次执行上述操作
c = ctl.get();
if (runStateOf(c) != rs)
continue retry;
// else CAS failed due to workerCount change; retry inner loop
}
}
// 标记工作线程是否启动成功
boolean workerStarted = false;
// 标记工作线程是否创建成功
boolean workerAdded = false;
Worker w = null;
try {
w = new Worker(firstTask);
final Thread t = w.thread;
if (t != null) {
// 加锁
final ReentrantLock mainLock = this.mainLock;
mainLock.lock();
try {
//获取线程池状态
int rs = runStateOf(ctl.get());
//rs < SHUTDOWN 如果线程池状态依然为 RUNNING, 并且线程的状态是存活的话,就会将工作线程添加到工作线程集合中
//(rs=SHUTDOWN && firstTask == null) 如果线程池状态小于 STOP,也就是 RUNNING 或者 SHUTDOWN 状态下,同时传入的任务实例 firstTask 为 null,则需要添加到工作线程集合和启动新的 Worker
// firstTask == null 证明只新建线程而不执行任务
if (rs < SHUTDOWN ||
(rs == SHUTDOWN && firstTask == null)) {
if (t.isAlive()) // precheck that t is startable
throw new IllegalThreadStateException();
workers.add(w);
//更新当前工作线程的最大容量
int s = workers.size();
if (s > largestPoolSize)
largestPoolSize = s;
// 工作线程是否启动成功
workerAdded = true;
}
} finally {
// 释放锁
mainLock.unlock();
}
//// 如果成功添加工作线程,则调用 Worker 内部的线程实例 t 的 Thread#start() 方法启动真实的线程实例
if (workerAdded) {
t.start();
/// 标记线程启动成功
workerStarted = true;
}
}
} finally {
// 线程启动失败,需要从工作线程中移除对应的 Worker
if (! workerStarted)
addWorkerFailed(w);
}
return workerStarted;
}
【简单】Java 线程池的核心线程会被回收吗?
在标准情况下,核心线程(core threads)即使处于空闲状态也不会被线程池回收。这是线程池的默认行为,目的是保持一定数量的常驻线程,以便快速响应新任务。通过设置 allowCoreThreadTimeOut(true)
可以改变这一行为。
【中等】如何合理地设置 Java 线程池的线程数?
根据任务类型设置线程数指导
场景 | 推荐设置 | 关键考虑 |
---|---|---|
CPU 密集型 | 核心数+1 | 避免上下文切换 |
I/O 密集型 | 核心数* 2~5 | IO 等待时间比例 |
混合型 | 核心数* 1.5~3 | 根据 CPU/IO 时间比例动态调整 |
未知场景 | 动态调整+监控 | 逐步优化 |
通用计算公式
线程数 = CPU 核心数 × 目标 CPU 利用率 × (1 + 等待时间/计算时间)
(目标 CPU 利用率建议 0.7-0.9)
场景化配置
- Web 服务器(如 Tomcat)推荐:
50-200
(需压测确定)。考虑因素:- 并发请求量
- 平均响应时间
- 系统资源(内存、CPU)
- 微服务调用推荐:
核心数 * 2
到核心数 * 5
,需配合熔断/降级机制 - 批处理任务推荐:
核心数 ± 2
,避免与在线服务争抢资源
避坑指南
- 禁止设置
maximumPoolSize=Integer.MAX_VALUE
,以避免 OOM。 - 避免使用无界队列(推荐
ArrayBlockingQueue
),避免内存堆积 - 必须配置拒绝策略(建议日志+降级)
- 动态线程池优于静态配置
最佳实践
- 通过
Runtime.getRuntime().availableProcessors()
获取核心数 - 配合有界队列+合理拒绝策略
- 建立线程池监控(活跃线程/队列堆积等)
- 重要服务建议使用动态调整:
// 获取服务器 CPU 核心数
int cpuCores = Runtime.getRuntime().availableProcessors();
// 创建线程池(I/O 密集型场景)
ThreadPoolExecutor executor = new ThreadPoolExecutor(
cpuCores * 2, // corePoolSize
cpuCores * 4, // maximumPoolSize
30, // keepAliveTime (秒)
TimeUnit.SECONDS,
new ArrayBlockingQueue<>(1000), // 有界队列
new CustomThreadFactory(), // 命名线程
new LogAndFallbackPolicy() // 自定义拒绝策略
);
【中等】Java 线程池支持哪些阻塞队列,如何选择?
队列类型 | 数据结构 | 是否有界 | 锁机制 | 特点 | 适用场景 | 不适用场景 |
---|---|---|---|---|---|---|
ArrayBlockingQueue | 数组 | 有界 | ReentrantLock | 固定容量,内存连续,支持公平锁 | 已知并发量的稳定系统 | 任务量波动大的场景 |
LinkedBlockingQueue | 链表 | 可选* | 双锁分离(put/take) | 默认无界 (Integer.MAX_VALUE),吞吐量高,节点动态分配 | 任务量不可预测的中等吞吐系统 | 严格内存控制的系统 |
SynchronousQueue | 无存储 | 无容量 | 无锁 (CAS) | 直接传递任务,吞吐量最高,公平/非公平模式可选 | 高并发短任务处理 | 存在长任务的场景 |
PriorityBlockingQueue | 堆 | 无界 | ReentrantLock | 按优先级排序,自动扩容,元素需实现 Comparable | 需要任务优先级调度的系统 | 对内存敏感的系统 |
DelayQueue | 堆+PriorityQueue | 无界 | ReentrantLock | 按延迟时间排序,元素需实现 Delayed 接口 | 定时任务/缓存过期处理 | 普通任务队列 |
关键说明:
- 有界性:
- LinkedBlockingQueue 构造时可指定容量变为有界
- SynchronousQueue 是特殊的"零容量"队列
- 吞吐量排序:
SynchronousQueue > LinkedBlockingQueue > ArrayBlockingQueue > PriorityBlockingQueue ≈ DelayQueue
- 内存开销:
PriorityBlockingQueue ≈ DelayQueue > LinkedBlockingQueue > ArrayBlockingQueue > SynchronousQueue
- 特殊机制:
- 公平模式:ArrayBlockingQueue/SynchronousQueue 可设置公平锁(降低吞吐但减少线程饥饿)
- 双锁分离:LinkedBlockingQueue 的 put/take 操作使用不同锁,提升并发度
- 直接传递:SynchronousQueue 实现生产者-消费者直接握手
选型决策参考:
是否需要优先级/延迟?
├─ 是 → PriorityBlockingQueue/DelayQueue
└─ 否 → 是否接受任务丢失?
├─ 是 → SynchronousQueue+CallerRunsPolicy
└─ 否 → 能否预估最大任务量?
├─ 能 → ArrayBlockingQueue(容量=预估峰值×1.5)
└─ 不能 → LinkedBlockingQueue(建议显式设置安全上限)
生产建议:
- Web 服务:ArrayBlockingQueue(2000-10000 容量)+ AbortPolicy
- 消息处理:LinkedBlockingQueue(10 万上限)+ DiscardOldestPolicy
- 实时交易:SynchronousQueue + CachedThreadPool
- 定时任务:DelayQueue(单线程消费)
【中等】Java 线程池支持哪些拒绝策略?如何选择?
Java 线程池支持以下拒绝策略:
策略名称(实现类) | 处理方式 | 优点 | 缺点 | 适用场景 |
---|---|---|---|---|
AbortPolicy(默认) | 直接抛出 RejectedExecutionException 异常 | 快速失败,避免系统过载 | 需要调用方处理异常 | 需要明确知道任务被拒绝的场景 |
CallerRunsPolicy | 让提交任务的线程自己执行该任务 | 降低新任务提交速度,保证任务不丢失 | 可能阻塞调用线程,影响整体性能 | 低优先级任务或允许同步执行的场景 |
DiscardPolicy | 静默丢弃新提交的任务,不做任何通知 | 系统行为简单 | 任务丢失无感知,可能造成数据不一致 | 允许丢弃非关键任务的场景(如日志记录) |
DiscardOldestPolicy | 丢弃队列中最旧的任务(队头),然后尝试重新提交新任务 | 优先处理新任务 | 可能丢失重要旧任务 | 新任务比旧任务更重要的场景(如实时数据) |
所有策略均在以下条件同时满足时触发:
- 线程数达到
maximumPoolSize
- 工作队列已满(对于有界队列)
- 仍有新任务提交
策略选择建议:
是否允许任务丢失?
├─ 允许 → 选择 DiscardPolicy/DiscardOldestPolicy
└─ 不允许 → 是否能接受降级?
├─ 能 → 自定义策略(如持久化存储)
└─ 不能 → 选择 CallerRunsPolicy(影响调用方)
生产环境推荐组合:
- 严格系统:
AbortPolicy
+ 告警监控 - 弹性系统:
CallerRunsPolicy
+ 熔断机制 - 最终一致性系统:自定义策略(如写入 Redis 重试队列)
Spring 的增强策略:
ThreadPoolTaskExecutor
额外支持:
- 通过
TaskRejectedException
提供更详细的拒绝信息 - 与
@Async
注解配合时自动应用策略
【中等】Java 线程池内部任务出异常后,如何知道是哪个线程出了异常?
在 Java 线程池中,当任务抛出异常时,默认情况下异常会被线程池"吞掉",不会直接抛出给调用者。
- 对于需要获取结果的异步任务,使用
submit()
和Future
组合 - 对于不需要结果的批量任务,使用自定义的
ThreadFactory
或重写afterExecute
- 在复杂系统中,考虑结合日志框架记录完整的异常堆栈和线程信息
通过以上方法,你可以有效地追踪线程池中哪个线程执行的任务抛出了异常。
以下是几种方法来识别哪个线程出了异常:
(1)使用 Future.get()
捕获异常
ExecutorService executor = Executors.newFixedThreadPool(5);
Future<?> future = executor.submit(() -> {
// 任务代码
throw new RuntimeException("模拟异常");
});
try {
future.get(); // 这里会抛出 ExecutionException
} catch (ExecutionException e) {
System.out.println("任务抛出异常:" + e.getCause());
// e.getCause() 获取原始异常
}
(2)自定义 ThreadFactory
设置未捕获异常处理器
ThreadFactory factory = r -> {
Thread t = new Thread(r);
t.setUncaughtExceptionHandler((thread, throwable) -> {
System.out.println("线程 " + thread.getName() + " 抛出异常:" + throwable);
});
return t;
};
ExecutorService executor = Executors.newFixedThreadPool(5, factory);
(3)重写 ThreadPoolExecutor
的 afterExecute
方法
ExecutorService executor = new ThreadPoolExecutor(..., ...) {
@Override
protected void afterExecute(Runnable r, Throwable t) {
super.afterExecute(r, t);
if (t != null) {
System.out.println("任务执行抛出异常:" + t);
}
// 对于通过 FutureTask 运行的任务,异常被封装在 Future 中
if (r instanceof Future<?>) {
try {
((Future<?>) r).get();
} catch (InterruptedException | ExecutionException e) {
System.out.println("Future 任务异常:" + e.getCause());
}
}
}
};
(4)在任务内部捕获异常
executor.execute(() -> {
try {
// 任务代码
} catch (Exception e) {
System.out.println("线程 " + Thread.currentThread().getName() + " 抛出异常:" + e);
// 记录线程信息
}
});
【中等】Java 线程池中 shutdown 与 shutdownNow 的区别是什么?
shutdown
不会立即终止线程池,而是要等所有任务缓存队列中的任务都执行完后才终止,但再也不会接受新的任务。
- 将线程池切换到
SHUTDOWN
状态; - 并调用
interruptIdleWorkers
方法请求中断所有空闲的 worker; - 最后调用
tryTerminate
尝试结束线程池。
shutdownNow
立即终止线程池,并尝试打断正在执行的任务,并且清空任务缓存队列,返回尚未执行的任务。与 shutdown
方法类似,不同的地方在于:
- 设置状态为
STOP
; - 中断所有工作线程,无论是否是空闲的;
- 取出阻塞队列中没有被执行的任务并返回。
【困难】Java 线程池参数在运行过程中能修改吗?如何修改?
- 可动态修改参数:核心线程数、最大线程数、空闲时间、拒绝策略
- 不可动态修改:队列实现类、线程工厂
- Spring 增强:
ThreadPoolTaskExecutor
提供更友好的 API - 生产建议:
- 配合监控系统实现自动扩缩容
- 修改时遵循先 max 后 core 的顺序
- 对队列容量修改要特别小心
ThreadPoolExecutor 原生动态修改参数方法
ThreadPoolExecutor 提供了以下核心参数的动态修改方法:
参数 | 修改方法 | 注意事项 |
---|---|---|
核心线程数 | setCorePoolSize(int) | 新值>旧值时立即生效;新值<旧时空闲线程会被逐渐回收 |
最大线程数 | setMaximumPoolSize(int) | 必须≥核心线程数;仅影响后续新增线程 |
空闲线程存活时间 | setKeepAliveTime(long, TimeUnit) | 对所有空闲的非核心线程生效 |
拒绝策略 | setRejectedExecutionHandler() | 立即生效,但已进入拒绝流程的任务不受影响 |
示例代码:
ThreadPoolExecutor executor = new ThreadPoolExecutor(
2, 5, 60, TimeUnit.SECONDS,
new LinkedBlockingQueue<>(10)
);
// 动态调整
executor.setCorePoolSize(4); // 核心线程数 2→4
executor.setMaximumPoolSize(8); // 最大线程数 5→8
executor.setKeepAliveTime(30, TimeUnit.SECONDS); // 60s→30s
executor.setRejectedExecutionHandler(new ThreadPoolExecutor.CallerRunsPolicy());
Spring 的 ThreadPoolTaskExecutor 增强
Spring 的ThreadPoolTaskExecutor
在原生基础上增加了更多动态能力:
@Bean
public ThreadPoolTaskExecutor taskExecutor() {
ThreadPoolTaskExecutor executor = new ThreadPoolTaskExecutor();
executor.setCorePoolSize(4);
executor.setMaxPoolSize(8);
executor.setQueueCapacity(50);
executor.initialize();
return executor;
}
// 动态调整示例
@Autowired
private ThreadPoolTaskExecutor taskExecutor;
public void adjustThreadPool() {
taskExecutor.setCorePoolSize(6);
taskExecutor.setMaxPoolSize(10);
taskExecutor.setQueueCapacity(100);
// Spring 会自动应用新配置
}
动态调整队列容量
队列容量的动态调整需要特殊处理,因为大多数 BlockingQueue 创建后容量固定:
解决方案:
- 使用自定义的可变容量队列
- 重建线程池(优雅迁移)
自定义队列示例:
public class ResizableCapacityLinkedBlockingQueue<E> extends LinkedBlockingQueue<E> {
public ResizableCapacityLinkedBlockingQueue(int capacity) {
super(capacity);
}
public synchronized void setCapacity(int capacity) {
// 实现容量调整逻辑
}
}
扩展:
开源项目:
- Hippo4j:异步线程池框架,支持线程池动态变更&监控&报警,无需修改代码轻松引入。支持多种使用模式,轻松引入,致力于提高系统运行保障能力。
- Dynamic TP:轻量级动态线程池,内置监控告警功能,集成三方中间件线程池管理,基于主流配置中心(已支持 Nacos、Apollo,Zookeeper、Consul、Etcd,可通过 SPI 自定义实现)。
Java 并发同步工具
【中等】CountDownLatch 的工作原理是什么?
CountDownLatch 通过计数器实现线程间的“等待-通知”机制,适用于分阶段任务同步,但不可重复使用。
基本作用
- 允许一个或多个线程等待,直到其他线程完成一组操作后再继续执行。
- 典型场景:主线程等待多个子线程完成任务后再汇总结果。
核心机制
- 计数器初始化:创建时指定初始计数值(如
new CountDownLatch(3)
)。 - 计数递减:子线程完成任务后调用
countDown()
,计数器减 1(线程不会阻塞)。 - 等待阻塞:主线程调用
await()
会阻塞,直到计数器归零(或超时)。

关键特性
- 一次性:计数器归零后无法重置,需重新创建实例。
- 非中断递减:
countDown()
不受线程中断影响,但await()
可被中断。
代码示例
CountDownLatch latch = new CountDownLatch(3);
// 子线程完成任务后递减
new Thread(() -> {
doTask();
latch.countDown(); // 计数器-1
}).start();
// 主线程等待所有子线程完成
latch.await();
System.out.println("All tasks done!");
【中等】CyclicBarrier 的工作原理是什么?
CyclicBarrier
通过“线程互相等待”实现协同,适合需要多轮同步的场景,且具备更高的灵活性。
核心作用
- 让一组线程互相等待,直到所有线程都到达某个屏障点(Barrier)后,再一起继续执行。
- 适用于分阶段并行任务(如多线程计算后合并结果)。
关键机制
机制 | 说明 |
---|---|
屏障初始化 | 创建时指定参与线程数 N (如 new CyclicBarrier(3) )及可选的回调任务(触发后执行)。 |
线程等待 | 每个线程调用 await() 时会被阻塞,直到所有 N 个线程都调用 await() 。 |
屏障突破 | 当所有线程到达屏障点后: 1. 执行回调任务(若设置); 2. 所有线程被唤醒,继续执行后续逻辑。 |
重置能力 | 屏障被突破后,自动重置,可重复使用(区别于 CountDownLatch )。 |

主要特性
- 可重复使用:一轮屏障突破后,自动重置计数器,支持下一轮同步。
- 回调任务:通过构造函数传入
Runnable
,在所有线程到达后由最后一个到达的线程执行。 - 超时与中断:
await(timeout, unit)
支持超时;线程在等待时若被中断,会抛出BrokenBarrierException
。
代码示例
CyclicBarrier barrier = new CyclicBarrier(3, () -> {
System.out.println("All threads reached the barrier!");
});
for (int i = 0; i < 3; i++) {
new Thread(() -> {
System.out.println(Thread.currentThread().getName() + " is working...");
try {
barrier.await(); // 等待其他线程
} catch (Exception e) {
e.printStackTrace();
}
System.out.println(Thread.currentThread().getName() + " continues after barrier.");
}).start();
}
对比 CountDownLatch
特性 | CyclicBarrier | CountDownLatch |
---|---|---|
重置能力 | 自动重置,可重复使用 | 一次性,不可重置 |
等待角色 | 所有线程互相等待 | 主线程等待子线程 |
计数方向 | 递增(线程到达后计数) | 递减(任务完成后计数) |
回调任务 | 支持 | 不支持 |
典型应用场景
- 多阶段并行计算:如 MapReduce 中,多个 Worker 完成局部计算后同步,再进入下一阶段。
- 模拟压力测试:让所有测试线程同时开始请求。
- 游戏同步:多个玩家加载资源完成后同时开始游戏。
【中等】Semaphore 的工作原理是什么?
Semaphore
译为信号量,是一种同步机制,用于控制多线程对共享资源的访问。
Semaphore 通过许可证机制灵活控制并发度,既可用于严格互斥(许可证=1 时类似锁),也可用于资源池管理。与 CyclicBarrier
/CountDownLatch
不同,它关注的是资源的访问权限而非线程间的同步。
核心作用
- 控制并发访问资源的线程数量,通过“许可证”(permits)机制实现限流。
- 适用于:
- 资源池管理(如数据库连接池)
- 限流(如接口每秒最大请求数)
- 互斥场景(类似锁,但更灵活)
关键机制
机制 | 说明 |
---|---|
许可证初始化 | 创建时指定许可证数量(如 new Semaphore(3) 表示最多允许 3 个线程同时访问)。 |
获取许可证 | 线程调用 acquire() :- 若有剩余许可证,立即获取并继续执行; - 若无许可证,则阻塞等待。 |
释放许可证 | 线程调用 release() :返还许可证,唤醒等待线程。 |
公平性 | 可指定公平模式(new Semaphore(3, true) ),避免线程饥饿。 |
主要特性
- 动态调整:可通过
release()
增加许可证,或reducePermits()
动态减少。 - 非阻塞尝试:
tryAcquire()
立即返回是否成功,支持超时(如tryAcquire(2, TimeUnit.SECONDS)
)。 - 可中断:
acquire()
可被其他线程中断(抛出InterruptedException
)。
代码示例
Semaphore semaphore = new Semaphore(3); // 允许 3 个线程并发
for (int i = 0; i < 5; i++) {
new Thread(() -> {
try {
semaphore.acquire(); // 获取许可证
System.out.println(Thread.currentThread().getName() + " 占用资源");
Thread.sleep(2000);
} catch (InterruptedException e) {
e.printStackTrace();
} finally {
semaphore.release(); // 释放许可证
System.out.println(Thread.currentThread().getName() + " 释放资源");
}
}).start();
}
输出:
Thread-0 占用资源
Thread-1 占用资源
Thread-2 占用资源
(2 秒后)
Thread-0 释放资源
Thread-3 占用资源
Thread-1 释放资源
Thread-4 占用资源
...
对比其他同步工具
特性 | Semaphore | ReentrantLock | CountDownLatch |
---|---|---|---|
核心能力 | 控制并发线程数 | 互斥锁 | 等待事件完成 |
是否可重入 | 是(但需手动释放) | 是(可重复加锁) | 不适用 |
资源释放 | 必须显式调用 release() | 必须显式解锁 | 自动递减 |
适用场景 | 限流、资源池 | 临界区保护 | 主线程等待子线程 |
典型应用场景
- 连接池管理:限制同时使用的数据库连接数。
- 流量控制:限制每秒处理的请求数。
- 生产者-消费者模型:通过信号量控制缓冲区大小。
Java 并发分工工具
【中等】ForkJoinPool 的工作原理是什么?
ForkJoinPool 通过工作窃取机制高效处理分治任务,适合递归并行计算,核心是本地队列+LIFO 处理+FIFO 窃取。
设计目标
- 高效执行分治任务:适用于递归分解的可并行计算(如归并排序、MapReduce)。
- 工作窃取(Work-Stealing):每个线程有自己的任务队列,空闲线程可从其他队列“窃取”任务,避免资源闲置。
核心组件
- 工作线程(ForkJoinWorkerThread):每个线程维护一个双端队列(Deque),存放自己的任务。
- 任务队列:
- 本地队列:LIFO(后进先出)处理自己生成的任务(
fork()
)。 - 窃取队列:FIFO(先进先出)窃取其他线程的任务(公平性)。
- 本地队列:LIFO(后进先出)处理自己生成的任务(
- 任务类型(ForkJoinTask):
RecursiveAction
(无返回值) /RecursiveTask
(有返回值)。
工作流程
- 任务拆分(Fork):调用
fork()
将子任务压入本地队列(LIFO)。 - 任务执行(Join):调用
join()
等待子任务结果,期间线程会优先处理本地任务。 - 工作窃取(Stealing):若线程无任务,从其他线程队列尾部窃取任务(FIFO,减少竞争)。
关键特性
- 低竞争:线程优先处理本地任务,减少同步开销。
- 负载均衡:空闲线程自动窃取任务,提高 CPU 利用率。
- 递归优化:适合深度递归任务,避免线程阻塞。
与普通线程池对比
特性 | ForkJoinPool | ThreadPoolExecutor |
---|---|---|
任务类型 | 分治任务(递归拆分) | 独立任务 |
任务调度 | 工作窃取(本地队列+窃取) | 全局队列(可能竞争) |
适用场景 | CPU 密集型并行计算 | IO 密集型或短任务 |
注意事项
- 避免阻塞操作:不适合 IO 密集型任务(线程数有限,易阻塞)。
- 任务粒度:过小的任务会增加调度开销。
【中等】CompleteFuture 的工作原理是什么?
CompletableFuture 通过回调链和 Completion 阶段机制实现灵活的异步编程,支持任务编排、结果转换和异常传播,底层采用无锁设计优化性能。
核心设计
- 异步编程模型:基于 Future 的增强实现,支持显式完成(手动设置结果)
- 回调驱动:通过链式调用实现异步任务编排
- 双阶段执行:
- 异步计算阶段(任务执行)
- 完成阶段(结果处理)
关键组件
- CompletionStage 接口:定义 50+种组合操作(thenApply/thenAccept/thenRun 等)
- 依赖关系堆栈:维护任务依赖链(类似链表结构)
- 执行器支持:可指定自定义线程池(默认使用 ForkJoinPool.commonPool)
工作流程
任务创建:
CompletableFuture.supplyAsync(() -> "task")
结果转换:
.thenApply(s -> s + " result")
最终处理:
.thenAccept(System.out::println)
核心机制
- 回调链(Completion 链):
- 每个操作生成新的 Completion 节点
- 节点间形成单向链表
- 触发机制:
- 前置任务完成时触发后续操作
- 支持同步/异步执行切换
- 结果传递:
- 异常传播(exceptionally 处理)
- 结果转换(thenApply)
线程模型
- 默认线程池:ForkJoinPool.commonPool()
- 可控性:
- 支持显式指定线程池
- 可强制指定同步执行(thenApply vs thenApplyAsync)
特殊功能
- 组合操作:
- allOf/anyOf(多任务协调)
- thenCombine(双源合并)
- 完成控制:
- complete()/completeExceptionally()(手动完成)
- obtrudeValue(强制覆盖结果)
性能特点
- 无锁设计:基于 CAS 操作
- 零等待:回调立即触发(无轮询)
- 最小化线程切换:优化执行路径
注意事项
- 线程泄漏风险:未指定线程池时使用默认池
- 回调地狱:过度链式调用降低可读性
- 异常处理:必须显式处理异常
适用场景
- 服务调用编排
- 异步流水线处理
- 多源结果聚合
【中等】Timer 的工作原理是什么?
Timer
通过单线程+优先级队列调度任务,简单但不可靠;生产环境建议用线程池替代。
基本组成
Timer
:任务调度器,管理任务队列和后台线程。TimerTask
:需实现run()
,定义要执行的任务。
核心机制
- 单线程调度:
- 所有任务由单个后台线程(
TimerThread
)顺序执行。 - 任务队列按执行时间排序(优先级队列,最小堆)。
- 所有任务由单个后台线程(
- 任务触发流程:
- 调用
schedule()
将任务加入队列。 - 线程循环检查队首任务,通过
wait(timeout)
休眠至执行时间。 - 执行
run()
后,根据调度类型计算下次执行时间:- 固定延迟(
schedule
):基于实际结束时间 + 周期。 - 固定速率(
scheduleAtFixedRate
):基于计划开始时间 + 周期(可能追赶延迟)。
- 固定延迟(
- 调用
关键问题
- 单线程阻塞:一个任务执行过长或崩溃会导致后续任务延迟/终止。
- 异常影响:任务抛出未捕获异常时,整个
Timer
线程停止。 - 资源释放:必须调用
cancel()
避免内存泄漏。
替代方案
ScheduledThreadPoolExecutor
更优:支持多线程、异常隔离、灵活调度。
【困难】时间轮(Time Wheel)的工作原理是什么?
JDK 内置的三种实现定时器的方式,实现思路都非常相似,都离不开任务、任务管理、任务调度三个角色。三种定时器新增和取消任务的时间复杂度都是 O(logn)
,面对海量任务插入和删除的场景,这三种定时器都会遇到比较严重的性能瓶颈。对于性能要求较高的场景,一般都会采用时间轮算法来实现定时器。
时间轮通过环形数组分片管理定时任务,以 O(1) 时间复杂度实现高效调度,多级设计兼顾长短延迟任务,是高性能定时器的核心实现方案。
时间轮(Timing Wheel)是 George Varghese 和 Tony Lauck 在 1996 年的论文 Hashed and Hierarchical Timing Wheels: data structures to efficiently implement a timer facility 实现的,它在 Linux 内核中使用广泛,是 Linux 内核定时器的实现方法和基础之一。

核心设计思想
- 环形数组结构:采用环形缓冲区(类似时钟表盘)分层管理定时任务
- 时间分片:将时间划分为固定间隔的槽(tick),每个槽对应一个任务链表
- 层级扩展:支持多级时间轮(小时/分钟/秒)处理不同精度的时间任务
核心组件
组件 | 作用 |
---|---|
环形数组 | 存储各时间槽的任务(如数组长度 60=1 分钟精度,每个槽代表 1 秒) |
任务链表 | 每个槽挂载到期时间相同的任务节点 |
当前指针 | 指向当前时间槽,随 tick 前进 |
层级指针 | 多级时间轮间的任务传递(如秒轮→分钟轮) |
工作流程
任务添加
- 计算目标槽位:
槽位 = (当前指针 + 延迟时间/tick) % 轮盘大小
- 相同槽位的任务以链表形式存储
# 示例:tick=1s,轮盘大小=60,添加 10 秒后执行的任务 slot = (current_pos + 10) % 60 # 存入第 10 个槽
- 计算目标槽位:
时间推进(tick)
- 每次 tick 移动当前指针到下一槽位
- 执行该槽位所有任务
- 多级时间轮:当低级轮转完一圈,高级轮降级一个任务到低级轮
任务降级(多级时间轮)
当秒级时间轮(60 槽)转完一圈: 将分钟轮当前槽的任务重新映射到秒轮
关键优势
优势 | 说明 |
---|---|
O(1) 时间复杂度 | 添加/删除任务仅需计算槽位,与任务数量无关 |
低内存开销 | 仅存储未到期任务,空槽不占资源 |
适合高频调度 | Kafka/Netty 等框架用于心跳检测、超时控制等场景 |
单级 vs 多级时间轮
类型 | 精度 | 缺点 | 适用场景 |
---|---|---|---|
单级 | 高精度 | 轮盘大(内存占用高) | 短延迟任务(<1 分钟) |
多级 | 分级精度 | 任务降级开销 | 长短延迟混合任务 |
实际应用
- Kafka:延迟消息处理(
DelayedOperationPurgatory
) - Netty:连接超时控制(
HashedWheelTimer
) - Linux 内核:定时器管理
性能对比
方案 | 添加复杂度 | 触发复杂度 | 内存占用 |
---|---|---|---|
时间轮 | O(1) | O(1) | O(n) |
优先级队列 | O(log n) | O(1) | O(n) |
轮询检测 | O(1) | O(n) | O(1) |
HashedWheelTimer 是 Netty 中时间轮算法的实现类。
案例
生产者消费者模式
经典问题
(1)什么是生产者消费者模式
(2)Java 中如何实现生产者消费者模式
知识点
(1)什么是生产者消费者模式
生产者消费者模式是一个经典的并发设计模式。在这个模型中,有一个共享缓冲区;有两个线程,一个负责向缓冲区推数据,另一个负责向缓冲区拉数据。要让两个线程更好的配合,就需要一个阻塞队列作为媒介来进行调度,由此便诞生了生产者消费者模式。

(2)Java 中如何实现生产者消费者模式
在 Java 中,实现生产者消费者模式有 3 种具有代表性的方式:
- 基于 BlockingQueue 实现
- 基于 Condition 实现
- 基于 wait/notify 实现
【示例】基于 BlockingQueue 实现生产者消费者模式
public class ProducerConsumerDemo01 {
public static void main(String[] args) throws InterruptedException {
BlockingQueue<Object> queue = new ArrayBlockingQueue<>(10);
Thread producer1 = new Thread(new Producer(queue), "producer1");
Thread producer2 = new Thread(new Producer(queue), "producer2");
Thread consumer1 = new Thread(new Consumer(queue), "consumer1");
Thread consumer2 = new Thread(new Consumer(queue), "consumer2");
producer1.start();
producer2.start();
consumer1.start();
consumer2.start();
}
static class Producer implements Runnable {
private long count = 0L;
private final BlockingQueue<Object> queue;
public Producer(BlockingQueue<Object> queue) {
this.queue = queue;
}
@Override
public void run() {
while (count < 500) {
try {
queue.put(new Object());
System.out.println(Thread.currentThread().getName() + " 生产 1 条数据,已生产数据量:" + ++count);
} catch (InterruptedException e) {
e.printStackTrace();
}
}
}
}
static class Consumer implements Runnable {
private long count = 0L;
private final BlockingQueue<Object> queue;
public Consumer(BlockingQueue<Object> queue) {
this.queue = queue;
}
@Override
public void run() {
while (count < 500) {
try {
queue.take();
System.out.println(Thread.currentThread().getName() + " 消费 1 条数据,已消费数据量:" + ++count);
} catch (InterruptedException e) {
e.printStackTrace();
}
}
}
}
}
【示例】基于 Condition 实现生产者消费者模式
public class ProducerConsumerDemo02 {
public static void main(String[] args) {
MyBlockingQueue<Object> queue = new MyBlockingQueue<>(10);
Runnable producer = () -> {
while (true) {
try {
queue.put(new Object());
System.out.println("生产 1 条数据,总数据量:" + queue.size());
} catch (InterruptedException e) {
e.printStackTrace();
}
}
};
new Thread(producer).start();
Runnable consumer = () -> {
while (true) {
try {
queue.take();
System.out.println("消费 1 条数据,总数据量:" + queue.size());
} catch (InterruptedException e) {
e.printStackTrace();
}
}
};
new Thread(consumer).start();
}
public static class MyBlockingQueue<T> {
private final int max;
private final Queue<T> queue;
private final ReentrantLock lock = new ReentrantLock();
private final Condition notEmpty = lock.newCondition();
private final Condition notFull = lock.newCondition();
public MyBlockingQueue(int size) {
this.max = size;
queue = new LinkedList<>();
}
public void put(T o) throws InterruptedException {
lock.lock();
try {
while (queue.size() == max) {
notFull.await();
}
queue.add(o);
notEmpty.signalAll();
} finally {
lock.unlock();
}
}
public T take() throws InterruptedException {
lock.lock();
try {
while (queue.isEmpty()) {
notEmpty.await();
}
T o = queue.remove();
notFull.signalAll();
return o;
} finally {
lock.unlock();
}
}
public int size() {
return queue.size();
}
}
}
【示例】基于 wait/notify 实现生产者消费者模式
public class ProducerConsumerDemo03 {
public static void main(String[] args) {
MyBlockingQueue<Object> queue = new MyBlockingQueue<>(10);
Runnable producer = () -> {
while (true) {
try {
queue.put(new Object());
System.out.println("生产 1 条数据,总数据量:" + queue.size());
} catch (InterruptedException e) {
e.printStackTrace();
}
}
};
new Thread(producer).start();
Runnable consumer = () -> {
while (true) {
try {
queue.take();
System.out.println("消费 1 条数据,总数据量:" + queue.size());
} catch (InterruptedException e) {
e.printStackTrace();
}
}
};
new Thread(consumer).start();
}
public static class MyBlockingQueue<T> {
private final int max;
private final Queue<T> queue;
public MyBlockingQueue(int size) {
max = size;
queue = new LinkedList<>();
}
public synchronized void put(T o) throws InterruptedException {
while (queue.size() == max) {
wait();
}
queue.add(o);
notifyAll();
}
public synchronized T take() throws InterruptedException {
while (queue.isEmpty()) {
wait();
}
T o = queue.remove();
notifyAll();
return o;
}
public synchronized int size() {
return queue.size();
}
}
}