跳至主要內容

Java 并发面试三

钝悟...大约 35 分钟JavaJavaCore面试JavaJavaCore面试并发

Java 并发面试三

Java 线程池

【简单】为什么要用线程池?

顾名思义,线程池就是管理一系列线程的资源池。当有任务要处理时,直接从线程池中获取线程来处理,处理完之后线程并不会立即被销毁,而是等待下一个任务。

池化技术想必大家已经屡见不鲜了,线程池、数据库连接池、HTTP 连接池等等都是对这个思想的应用。池化技术的思想主要是为了减少每次获取资源的消耗,提高对资源的利用率。

线程池提供了一种限制和管理资源(包括执行一个任务)的方式。 每个线程池还维护一些基本统计信息,例如已完成任务的数量。

这里借用《Java 并发编程的艺术》提到的来说一下使用线程池的好处

  • 降低资源消耗。通过重复利用已创建的线程降低线程创建和销毁造成的消耗。
  • 提高响应速度。当任务到达时,任务可以不需要等到线程创建就能立即执行。
  • 提高线程的可管理性。线程是稀缺资源,如果无限制的创建,不仅会消耗系统资源,还会降低系统的稳定性,使用线程池可以进行统一的分配,调优和监控。

【简单】Java 创建线程池有哪些方式?

Java 提供了多种创建线程池的方法,主要通过 java.util.concurrent.Executors 工厂类和直接使用 ThreadPoolExecutor 构造函数来实现。

  • 简单场景使用 Executors 工厂方法
  • 需要精细控制时使用 ThreadPoolExecutor 构造器
  • 注意根据任务类型选择合适的线程池类型
  • 避免使用无界队列以防内存溢出

(1)通过 Executors 工厂方法

Executors 类中提供了几种内置的 ThreadPoolExecutor 实现:

  • FixedThreadPool:固定线程数量的线程池。该线程池中的线程数量始终不变。当有一个新的任务提交时,线程池中若有空闲线程,则立即执行。若没有,则新的任务会被暂存在一个任务队列中,待有线程空闲时,便处理在任务队列中的任务。
  • SingleThreadExecutor: 只有一个线程的线程池。若多余一个任务被提交到该线程池,任务会被保存在一个任务队列中,待线程空闲,按先入先出的顺序执行队列中的任务。
  • CachedThreadPool: 可根据实际情况调整线程数量的线程池。线程池的线程数量不确定,但若有空闲线程可以复用,则会优先使用可复用的线程。若所有线程均在工作,又有新的任务提交,则会创建新的线程处理任务。所有线程在当前任务执行完毕后,将返回线程池进行复用。
  • ScheduledThreadPool:给定的延迟后运行任务或者定期执行任务的线程池。

(2)直接使用 ThreadPoolExecutor 构造器

new ThreadPoolExecutor(
    int corePoolSize,
    int maximumPoolSize,
    long keepAliveTime,
    TimeUnit unit,
    BlockingQueue<Runnable> workQueue,
    ThreadFactory threadFactory,
    RejectedExecutionHandler handler
);
  • 提供更精细的控制参数
  • 可以自定义线程工厂和拒绝策略

(3)ForkJoinPool (JDK7+)

ForkJoinPool forkJoinPool = new ForkJoinPool(int parallelism);
  • 适用于分治算法和并行任务
  • 使用工作窃取 (work-stealing) 算法

【中等】Java 线程池有哪些核心参数?各有什么作用?

ThreadPoolExecutor 有四个构造方法,前三个都是基于第四个实现。第四个构造方法定义如下:

public ThreadPoolExecutor(int corePoolSize,// 线程池的核心线程数量
						  int maximumPoolSize,// 线程池的最大线程数
						  long keepAliveTime,// 当线程数大于核心线程数时,多余的空闲线程存活的最长时间
						  TimeUnit unit,// 时间单位
						  BlockingQueue<Runnable> workQueue,// 任务队列,用来储存等待执行任务的队列
						  ThreadFactory threadFactory,// 线程工厂,用来创建线程,一般默认即可
						  RejectedExecutionHandler handler// 拒绝策略,当提交的任务过多而不能及时处理时,我们可以定制策略来处理任务
) {// 略}

参数说明:

  • corePoolSize表示线程池保有的最小线程数
  • maximumPoolSize表示线程池允许创建的最大线程数
    • 如果队列满了,并且已创建的线程数小于最大线程数,则线程池会再创建新的线程执行任务。
    • 值得注意的是:如果使用了无界的任务队列这个参数就没什么效果。
  • keepAliveTime & unit表示非核心线程存活时间。如果一个线程空闲了keepAliveTime & unit 这么久,而且线程池的线程数大于 corePoolSize ,那么这个空闲的线程就要被回收了。
  • workQueue等待执行的任务队列。用于保存等待执行的任务的阻塞队列。 可以选择以下几个阻塞队列。
    • ArrayBlockingQueue:基于数组的有界阻塞队列
    • LinkedBlockingQueue:基于链表的无界阻塞队列,可能导致 OOM。
    • SynchronousQueue不保存任务,直接新建一个线程来执行任务(需要有可用线程,否则拒绝)。
    • DelayedWorkQueue:延迟阻塞队列。
    • PriorityBlockingQueue具有优先级的无界阻塞队列
  • threadFactory线程工厂。线程工程用于自定义如何创建线程。
  • handler拒绝策略。它是 RejectedExecutionHandler 类型的变量。当队列和线程池都满了,说明线程池处于饱和状态,那么必须采取一种策略处理提交的新任务。线程池支持以下策略:
    • AbortPolicy默认策略丢弃任务并抛出异常,直接抛出 RejectedExecutionException
    • DiscardPolicy丢弃任务但不抛出异常
    • DiscardOldestPolicy丢弃队列最老的任务,然后重新尝试提交
    • CallerRunsPolicy提交任务的线程自己去执行该任务
    • 如果以上策略都不能满足需要,也可以通过实现 RejectedExecutionHandler 接口来定制处理策略。如记录日志或持久化不能处理的任务。

合理配置这些参数可以优化线程池的性能和稳定性,避免 OOM 或任务丢失。

【中等】Java 线程池的工作原理是什么?

线程池的工作流程遵循 任务提交 → 线程分配 → 队列管理 → 拒绝处理 机制:

  1. 提交任务:调用 execute(Runnable)submit(Callable) 提交任务。
  2. 线程分配逻辑
    • 核心线程可用 → 立即执行任务(即使有空闲线程也会优先创建新线程直到 corePoolSize)。
    • 核心线程已满 → 任务进入任务队列(workQueue)等待。
    • 队列已满 → 创建新线程(不超过 maximumPoolSize)。
    • 线程数达 maximumPoolSize 且队列满 → 触发拒绝策略(RejectedExecutionHandler)。
  3. 线程回收:非核心线程在空闲超过 keepAliveTime 后被回收,核心线程默认常驻(除非设置 allowCoreThreadTimeOut=true)。

线程分配和队列管理源码

默认情况下,创建线程池之后,线程池中是没有线程的,需要提交任务之后才会创建线程。提交任务可以使用 execute 方法,它是 ThreadPoolExecutor 的核心方法,通过这个方法可以向线程池提交一个任务,交由线程池去执行

// 用于控制线程池的运行状态和线程池中的有效线程数量
private final AtomicInteger ctl = new AtomicInteger(ctlOf(RUNNING, 0));

public void execute(Runnable command) {
	if (command == null)
		throw new NullPointerException();

    // 获取 ctl 中存储的线程池状态信息
	int c = ctl.get();

    // 线程池执行可以分为 3 个步骤
    // 1. 若工作线程数小于核心线程数,则尝试启动一个新的线程来执行任务
	if (workerCountOf(c) < corePoolSize) {
		if (addWorker(command, true))
			return;
		c = ctl.get();
	}

    // 2. 如果任务可以成功地加入队列,还需要再次确认是否需要添加新的线程(因为可能自从上次检查以来已经有线程死亡)或者检查线程池是否已经关闭
    // 	-> 如果是后者,则可能需要回滚入队操作;
    // 	-> 如果是前者,则可能需要启动新的线程
	if (isRunning(c) && workQueue.offer(command)) {
		int recheck = ctl.get();
		if (!isRunning(recheck) && remove(command))
			reject(command);
		else if (workerCountOf(recheck) == 0)
			addWorker(null, false);
	}
    // 如果任务无法加入队列,则尝试添加一个新的线程
    // 如果添加新线程失败,说明线程池已经关闭或者达到了容量上限,此时将拒绝该任务
	else if (!addWorker(command, false))
		reject(command);
}

execute 方法工作流程如下:

  1. 如果 workerCount < corePoolSize,则创建并启动一个线程来执行新提交的任务;
  2. 如果 workerCount >= corePoolSize,且线程池内的阻塞队列未满,则将任务添加到该阻塞队列中;
  3. 如果 workerCount >= corePoolSize && workerCount < maximumPoolSize,且线程池内的阻塞队列已满,则创建并启动一个线程来执行新提交的任务;
  4. 如果workerCount >= maximumPoolSize,并且线程池内的阻塞队列已满,则根据拒绝策略来处理该任务,默认的处理方式是直接抛异常。

线程池任务状态

ThreadPoolExecutor 有以下重要字段:

private final AtomicInteger ctl = new AtomicInteger(ctlOf(RUNNING, 0));
private static final int COUNT_BITS = Integer.SIZE - 3;
private static final int CAPACITY   = (1 << COUNT_BITS) - 1;
// runState is stored in the high-order bits
private static final int RUNNING    = -1 << COUNT_BITS;
private static final int SHUTDOWN   =  0 << COUNT_BITS;
private static final int STOP       =  1 << COUNT_BITS;
private static final int TIDYING    =  2 << COUNT_BITS;
private static final int TERMINATED =  3 << COUNT_BITS;

ctl 用于控制线程池的运行状态和线程池中的有效线程数量。它包含两部分的信息:

  • 线程池的运行状态 (runState)
  • 线程池内有效线程的数量 (workerCount)
  • 可以看到,ctl 使用了 Integer 类型来保存,高 3 位保存 runState,低 29 位保存 workerCountCOUNT_BITS 就是 29,CAPACITY 就是 1 左移 29 位减 1(29 个 1),这个常量表示 workerCount 的上限值,大约是 5 亿。

线程池一共有五种运行状态

  • RUNNING(运行状态)。接受新任务,并且也能处理阻塞队列中的任务。
  • SHUTDOWN(关闭状态)。不接受新任务,但可以处理阻塞队列中的任务。
    • 在线程池处于 RUNNING 状态时,调用 shutdown 方法会使线程池进入到该状态。
    • finalize 方法在执行过程中也会调用 shutdown 方法进入该状态。
  • STOP(停止状态)。不接受新任务,也不处理队列中的任务。会中断正在处理任务的线程。在线程池处于 RUNNINGSHUTDOWN 状态时,调用 shutdownNow 方法会使线程池进入到该状态。
  • TIDYING(整理状态)。如果所有的任务都已终止了,workerCount (有效线程数) 为 0,线程池进入该状态后会调用 terminated 方法进入 TERMINATED 状态。
  • TERMINATED(已终止状态)。在 terminated 方法执行完后进入该状态。默认 terminated 方法中什么也没有做。进入 TERMINATED 的条件如下:
    • 线程池不是 RUNNING 状态;
    • 线程池状态不是 TIDYING 状态或 TERMINATED 状态;
    • 如果线程池状态是 SHUTDOWN 并且 workerQueue 为空;
    • workerCount 为 0;
    • 设置 TIDYING 状态成功。

execute 方法中,多次调用 addWorker 方法。addWorker 这个方法主要用来创建新的工作线程,如果返回 true 说明创建和启动工作线程成功,否则的话返回的就是 false。

// 全局锁,并发操作必备
private final ReentrantLock mainLock = new ReentrantLock();
// 跟踪线程池的最大大小,只有在持有全局锁 mainLock 的前提下才能访问此集合
private int largestPoolSize;
// 工作线程集合,存放线程池中所有的(活跃的)工作线程,只有在持有全局锁 mainLock 的前提下才能访问此集合
private final HashSet<Worker> workers = new HashSet<>();
//获取线程池状态
private static int runStateOf(int c)     { return c & ~CAPACITY; }
//判断线程池的状态是否为 Running
private static boolean isRunning(int c) {
	return c < SHUTDOWN;
}

/**
 * 添加新的工作线程到线程池
 * @param firstTask 要执行
 * @param core 参数为 true 的话表示使用线程池的基本大小,为 false 使用线程池最大大小
 * @return 添加成功就返回 true 否则返回 false
 */
private boolean addWorker(Runnable firstTask, boolean core) {
	retry:
	for (;;) {
		//这两句用来获取线程池的状态
		int c = ctl.get();
		int rs = runStateOf(c);

		// Check if queue empty only if necessary.
		if (rs >= SHUTDOWN &&
			! (rs == SHUTDOWN &&
			   firstTask == null &&
			   ! workQueue.isEmpty()))
			return false;

		for (;;) {
		   //获取线程池中工作的线程的数量
			int wc = workerCountOf(c);
			// core 参数为 false 的话表明队列也满了,线程池大小变为 maximumPoolSize
			if (wc >= CAPACITY ||
				wc >= (core ? corePoolSize : maximumPoolSize))
				return false;
		   //原子操作将 workcount 的数量加 1
			if (compareAndIncrementWorkerCount(c))
				break retry;
			// 如果线程的状态改变了就再次执行上述操作
			c = ctl.get();
			if (runStateOf(c) != rs)
				continue retry;
			// else CAS failed due to workerCount change; retry inner loop
		}
	}
	// 标记工作线程是否启动成功
	boolean workerStarted = false;
	// 标记工作线程是否创建成功
	boolean workerAdded = false;
	Worker w = null;
	try {

		w = new Worker(firstTask);
		final Thread t = w.thread;
		if (t != null) {
		  // 加锁
			final ReentrantLock mainLock = this.mainLock;
			mainLock.lock();
			try {
			   //获取线程池状态
				int rs = runStateOf(ctl.get());
			   //rs < SHUTDOWN 如果线程池状态依然为 RUNNING, 并且线程的状态是存活的话,就会将工作线程添加到工作线程集合中
			  //(rs=SHUTDOWN && firstTask == null) 如果线程池状态小于 STOP,也就是 RUNNING 或者 SHUTDOWN 状态下,同时传入的任务实例 firstTask 为 null,则需要添加到工作线程集合和启动新的 Worker
			   // firstTask == null 证明只新建线程而不执行任务
				if (rs < SHUTDOWN ||
					(rs == SHUTDOWN && firstTask == null)) {
					if (t.isAlive()) // precheck that t is startable
						throw new IllegalThreadStateException();
					workers.add(w);
				   //更新当前工作线程的最大容量
					int s = workers.size();
					if (s > largestPoolSize)
						largestPoolSize = s;
				  // 工作线程是否启动成功
					workerAdded = true;
				}
			} finally {
				// 释放锁
				mainLock.unlock();
			}
			//// 如果成功添加工作线程,则调用 Worker 内部的线程实例 t 的 Thread#start() 方法启动真实的线程实例
			if (workerAdded) {
				t.start();
			  /// 标记线程启动成功
				workerStarted = true;
			}
		}
	} finally {
	   // 线程启动失败,需要从工作线程中移除对应的 Worker
		if (! workerStarted)
			addWorkerFailed(w);
	}
	return workerStarted;
}

【简单】Java 线程池的核心线程会被回收吗?

在标准情况下,核心线程(core threads)即使处于空闲状态也不会被线程池回收。这是线程池的默认行为,目的是保持一定数量的常驻线程,以便快速响应新任务。通过设置 allowCoreThreadTimeOut(true) 可以改变这一行为。

【中等】如何合理地设置 Java 线程池的线程数?

根据任务类型设置线程数指导

场景推荐设置关键考虑
CPU 密集型核心数+1避免上下文切换
I/O 密集型核心数* 2~5IO 等待时间比例
混合型核心数* 1.5~3根据 CPU/IO 时间比例动态调整
未知场景动态调整+监控逐步优化

通用计算公式

线程数 = CPU 核心数 × 目标 CPU 利用率 × (1 + 等待时间/计算时间)

(目标 CPU 利用率建议 0.7-0.9)

场景化配置

  • Web 服务器(如 Tomcat)推荐:50-200(需压测确定)。考虑因素:
    • 并发请求量
    • 平均响应时间
    • 系统资源(内存、CPU)
  • 微服务调用推荐:核心数 * 2核心数 * 5,需配合熔断/降级机制
  • 批处理任务推荐:核心数 ± 2,避免与在线服务争抢资源

避坑指南

  • 禁止设置maximumPoolSize=Integer.MAX_VALUE,以避免 OOM。
  • 避免使用无界队列(推荐ArrayBlockingQueue),避免内存堆积
  • 必须配置拒绝策略(建议日志+降级)
  • 动态线程池优于静态配置

最佳实践

  • 通过Runtime.getRuntime().availableProcessors()获取核心数
  • 配合有界队列+合理拒绝策略
  • 建立线程池监控(活跃线程/队列堆积等)
  • 重要服务建议使用动态调整:
// 获取服务器 CPU 核心数
int cpuCores = Runtime.getRuntime().availableProcessors();

// 创建线程池(I/O 密集型场景)
ThreadPoolExecutor executor = new ThreadPoolExecutor(
    cpuCores * 2,          // corePoolSize
    cpuCores * 4,          // maximumPoolSize
    30,                    // keepAliveTime (秒)
    TimeUnit.SECONDS,
    new ArrayBlockingQueue<>(1000),  // 有界队列
    new CustomThreadFactory(),       // 命名线程
    new LogAndFallbackPolicy()       // 自定义拒绝策略
);

【中等】Java 线程池支持哪些阻塞队列,如何选择?

队列类型数据结构是否有界锁机制特点适用场景不适用场景
ArrayBlockingQueue数组有界ReentrantLock固定容量,内存连续,支持公平锁已知并发量的稳定系统任务量波动大的场景
LinkedBlockingQueue链表可选*双锁分离(put/take)默认无界 (Integer.MAX_VALUE),吞吐量高,节点动态分配任务量不可预测的中等吞吐系统严格内存控制的系统
SynchronousQueue无存储无容量无锁 (CAS)直接传递任务,吞吐量最高,公平/非公平模式可选高并发短任务处理存在长任务的场景
PriorityBlockingQueue无界ReentrantLock按优先级排序,自动扩容,元素需实现 Comparable需要任务优先级调度的系统对内存敏感的系统
DelayQueue堆+PriorityQueue无界ReentrantLock按延迟时间排序,元素需实现 Delayed 接口定时任务/缓存过期处理普通任务队列

关键说明

  • 有界性
    • LinkedBlockingQueue 构造时可指定容量变为有界
    • SynchronousQueue 是特殊的"零容量"队列
  • 吞吐量排序SynchronousQueue > LinkedBlockingQueue > ArrayBlockingQueue > PriorityBlockingQueue ≈ DelayQueue
  • 内存开销PriorityBlockingQueue ≈ DelayQueue > LinkedBlockingQueue > ArrayBlockingQueue > SynchronousQueue
  • 特殊机制
    • 公平模式:ArrayBlockingQueue/SynchronousQueue 可设置公平锁(降低吞吐但减少线程饥饿)
    • 双锁分离:LinkedBlockingQueue 的 put/take 操作使用不同锁,提升并发度
    • 直接传递:SynchronousQueue 实现生产者-消费者直接握手

选型决策参考

是否需要优先级/延迟?
├─ 是 → PriorityBlockingQueue/DelayQueue
└─ 否 → 是否接受任务丢失?
   ├─ 是 → SynchronousQueue+CallerRunsPolicy
   └─ 否 → 能否预估最大任务量?
      ├─ 能 → ArrayBlockingQueue(容量=预估峰值×1.5)
      └─ 不能 → LinkedBlockingQueue(建议显式设置安全上限)

生产建议

  • Web 服务:ArrayBlockingQueue(2000-10000 容量)+ AbortPolicy
  • 消息处理:LinkedBlockingQueue(10 万上限)+ DiscardOldestPolicy
  • 实时交易:SynchronousQueue + CachedThreadPool
  • 定时任务:DelayQueue(单线程消费)

【中等】Java 线程池支持哪些拒绝策略?如何选择?

Java 线程池支持以下拒绝策略:

策略名称(实现类)处理方式优点缺点适用场景
AbortPolicy(默认)直接抛出 RejectedExecutionException 异常快速失败,避免系统过载需要调用方处理异常需要明确知道任务被拒绝的场景
CallerRunsPolicy让提交任务的线程自己执行该任务降低新任务提交速度,保证任务不丢失可能阻塞调用线程,影响整体性能低优先级任务或允许同步执行的场景
DiscardPolicy静默丢弃新提交的任务,不做任何通知系统行为简单任务丢失无感知,可能造成数据不一致允许丢弃非关键任务的场景(如日志记录)
DiscardOldestPolicy丢弃队列中最旧的任务(队头),然后尝试重新提交新任务优先处理新任务可能丢失重要旧任务新任务比旧任务更重要的场景(如实时数据)

所有策略均在以下条件同时满足时触发

  • 线程数达到 maximumPoolSize
  • 工作队列已满(对于有界队列)
  • 仍有新任务提交

策略选择建议

是否允许任务丢失?
├─ 允许 → 选择 DiscardPolicy/DiscardOldestPolicy
└─ 不允许 → 是否能接受降级?
   ├─ 能 → 自定义策略(如持久化存储)
   └─ 不能 → 选择 CallerRunsPolicy(影响调用方)

生产环境推荐组合

  • 严格系统AbortPolicy + 告警监控
  • 弹性系统CallerRunsPolicy + 熔断机制
  • 最终一致性系统:自定义策略(如写入 Redis 重试队列)

Spring 的增强策略

ThreadPoolTaskExecutor 额外支持:

  • 通过 TaskRejectedException 提供更详细的拒绝信息
  • @Async 注解配合时自动应用策略

【中等】Java 线程池内部任务出异常后,如何知道是哪个线程出了异常?

在 Java 线程池中,当任务抛出异常时,默认情况下异常会被线程池"吞掉",不会直接抛出给调用者。

  1. 对于需要获取结果的异步任务,使用submit()Future组合
  2. 对于不需要结果的批量任务,使用自定义的ThreadFactory或重写afterExecute
  3. 在复杂系统中,考虑结合日志框架记录完整的异常堆栈和线程信息

通过以上方法,你可以有效地追踪线程池中哪个线程执行的任务抛出了异常。

以下是几种方法来识别哪个线程出了异常:

(1)使用 Future.get() 捕获异常

ExecutorService executor = Executors.newFixedThreadPool(5);
Future<?> future = executor.submit(() -> {
    // 任务代码
    throw new RuntimeException("模拟异常");
});

try {
    future.get(); // 这里会抛出 ExecutionException
} catch (ExecutionException e) {
    System.out.println("任务抛出异常:" + e.getCause());
    // e.getCause() 获取原始异常
}

(2)自定义 ThreadFactory 设置未捕获异常处理器

ThreadFactory factory = r -> {
    Thread t = new Thread(r);
    t.setUncaughtExceptionHandler((thread, throwable) -> {
        System.out.println("线程 " + thread.getName() + " 抛出异常:" + throwable);
    });
    return t;
};

ExecutorService executor = Executors.newFixedThreadPool(5, factory);

(3)重写 ThreadPoolExecutorafterExecute 方法

ExecutorService executor = new ThreadPoolExecutor(..., ...) {
    @Override
    protected void afterExecute(Runnable r, Throwable t) {
        super.afterExecute(r, t);
        if (t != null) {
            System.out.println("任务执行抛出异常:" + t);
        }
        // 对于通过 FutureTask 运行的任务,异常被封装在 Future 中
        if (r instanceof Future<?>) {
            try {
                ((Future<?>) r).get();
            } catch (InterruptedException | ExecutionException e) {
                System.out.println("Future 任务异常:" + e.getCause());
            }
        }
    }
};

(4)在任务内部捕获异常

executor.execute(() -> {
    try {
        // 任务代码
    } catch (Exception e) {
        System.out.println("线程 " + Thread.currentThread().getName() + " 抛出异常:" + e);
        // 记录线程信息
    }
});

【中等】Java 线程池中 shutdown 与 shutdownNow 的区别是什么?

shutdown 不会立即终止线程池,而是要等所有任务缓存队列中的任务都执行完后才终止,但再也不会接受新的任务。

  • 将线程池切换到 SHUTDOWN 状态;
  • 并调用 interruptIdleWorkers 方法请求中断所有空闲的 worker;
  • 最后调用 tryTerminate 尝试结束线程池。

shutdownNow 立即终止线程池,并尝试打断正在执行的任务,并且清空任务缓存队列,返回尚未执行的任务。与 shutdown 方法类似,不同的地方在于:

  • 设置状态为 STOP
  • 中断所有工作线程,无论是否是空闲的;
  • 取出阻塞队列中没有被执行的任务并返回。

【困难】Java 线程池参数在运行过程中能修改吗?如何修改?

  • 可动态修改参数:核心线程数、最大线程数、空闲时间、拒绝策略
  • 不可动态修改:队列实现类、线程工厂
  • Spring 增强ThreadPoolTaskExecutor提供更友好的 API
  • 生产建议
    • 配合监控系统实现自动扩缩容
    • 修改时遵循先 max 后 core 的顺序
    • 对队列容量修改要特别小心

ThreadPoolExecutor 原生动态修改参数方法

ThreadPoolExecutor 提供了以下核心参数的动态修改方法:

参数修改方法注意事项
核心线程数setCorePoolSize(int)新值>旧值时立即生效;新值<旧时空闲线程会被逐渐回收
最大线程数setMaximumPoolSize(int)必须≥核心线程数;仅影响后续新增线程
空闲线程存活时间setKeepAliveTime(long, TimeUnit)对所有空闲的非核心线程生效
拒绝策略setRejectedExecutionHandler()立即生效,但已进入拒绝流程的任务不受影响

示例代码

ThreadPoolExecutor executor = new ThreadPoolExecutor(
    2, 5, 60, TimeUnit.SECONDS,
    new LinkedBlockingQueue<>(10)
);

// 动态调整
executor.setCorePoolSize(4);  // 核心线程数 2→4
executor.setMaximumPoolSize(8); // 最大线程数 5→8
executor.setKeepAliveTime(30, TimeUnit.SECONDS); // 60s→30s
executor.setRejectedExecutionHandler(new ThreadPoolExecutor.CallerRunsPolicy());

Spring 的 ThreadPoolTaskExecutor 增强

Spring 的ThreadPoolTaskExecutor在原生基础上增加了更多动态能力:

@Bean
public ThreadPoolTaskExecutor taskExecutor() {
    ThreadPoolTaskExecutor executor = new ThreadPoolTaskExecutor();
    executor.setCorePoolSize(4);
    executor.setMaxPoolSize(8);
    executor.setQueueCapacity(50);
    executor.initialize();
    return executor;
}

// 动态调整示例
@Autowired
private ThreadPoolTaskExecutor taskExecutor;

public void adjustThreadPool() {
    taskExecutor.setCorePoolSize(6);
    taskExecutor.setMaxPoolSize(10);
    taskExecutor.setQueueCapacity(100);
    // Spring 会自动应用新配置
}

动态调整队列容量

队列容量的动态调整需要特殊处理,因为大多数 BlockingQueue 创建后容量固定:

解决方案

  1. 使用自定义的可变容量队列
  2. 重建线程池(优雅迁移)

自定义队列示例

public class ResizableCapacityLinkedBlockingQueue<E> extends LinkedBlockingQueue<E> {
    public ResizableCapacityLinkedBlockingQueue(int capacity) {
        super(capacity);
    }

    public synchronized void setCapacity(int capacity) {
        // 实现容量调整逻辑
    }
}

扩展:

开源项目:

  • Hippo4jopen in new window:异步线程池框架,支持线程池动态变更&监控&报警,无需修改代码轻松引入。支持多种使用模式,轻松引入,致力于提高系统运行保障能力。
  • Dynamic TPopen in new window:轻量级动态线程池,内置监控告警功能,集成三方中间件线程池管理,基于主流配置中心(已支持 Nacos、Apollo,Zookeeper、Consul、Etcd,可通过 SPI 自定义实现)。

Java 并发同步工具

【中等】CountDownLatch 的工作原理是什么?

CountDownLatch 通过计数器实现线程间的“等待-通知”机制,适用于分阶段任务同步,但不可重复使用。

基本作用

  • 允许一个或多个线程等待,直到其他线程完成一组操作后再继续执行。
  • 典型场景:主线程等待多个子线程完成任务后再汇总结果。

核心机制

  • 计数器初始化:创建时指定初始计数值(如 new CountDownLatch(3))。
  • 计数递减:子线程完成任务后调用 countDown(),计数器减 1(线程不会阻塞)。
  • 等待阻塞:主线程调用 await() 会阻塞,直到计数器归零(或超时)。
img
img

关键特性

  • 一次性:计数器归零后无法重置,需重新创建实例。
  • 非中断递减countDown() 不受线程中断影响,但 await() 可被中断。

代码示例

CountDownLatch latch = new CountDownLatch(3);

// 子线程完成任务后递减
new Thread(() -> {
    doTask();
    latch.countDown(); // 计数器-1
}).start();

// 主线程等待所有子线程完成
latch.await();
System.out.println("All tasks done!");

【中等】CyclicBarrier 的工作原理是什么?

CyclicBarrier 通过“线程互相等待”实现协同,适合需要多轮同步的场景,且具备更高的灵活性。

核心作用

  • 一组线程互相等待,直到所有线程都到达某个屏障点(Barrier)后,再一起继续执行。
  • 适用于分阶段并行任务(如多线程计算后合并结果)。

关键机制

机制说明
屏障初始化创建时指定参与线程数 N(如 new CyclicBarrier(3))及可选的回调任务(触发后执行)。
线程等待每个线程调用 await() 时会被阻塞,直到所有 N 个线程都调用 await()
屏障突破当所有线程到达屏障点后:
1. 执行回调任务(若设置);
2. 所有线程被唤醒,继续执行后续逻辑。
重置能力屏障被突破后,自动重置,可重复使用(区别于 CountDownLatch)。
img
img

主要特性

  • 可重复使用:一轮屏障突破后,自动重置计数器,支持下一轮同步。
  • 回调任务:通过构造函数传入 Runnable,在所有线程到达后由最后一个到达的线程执行。
  • 超时与中断await(timeout, unit) 支持超时;线程在等待时若被中断,会抛出 BrokenBarrierException

代码示例

CyclicBarrier barrier = new CyclicBarrier(3, () -> {
    System.out.println("All threads reached the barrier!");
});

for (int i = 0; i < 3; i++) {
    new Thread(() -> {
        System.out.println(Thread.currentThread().getName() + " is working...");
        try {
            barrier.await(); // 等待其他线程
        } catch (Exception e) {
            e.printStackTrace();
        }
        System.out.println(Thread.currentThread().getName() + " continues after barrier.");
    }).start();
}

对比 CountDownLatch

特性CyclicBarrierCountDownLatch
重置能力自动重置,可重复使用一次性,不可重置
等待角色所有线程互相等待主线程等待子线程
计数方向递增(线程到达后计数)递减(任务完成后计数)
回调任务支持不支持

典型应用场景

  • 多阶段并行计算:如 MapReduce 中,多个 Worker 完成局部计算后同步,再进入下一阶段。
  • 模拟压力测试:让所有测试线程同时开始请求。
  • 游戏同步:多个玩家加载资源完成后同时开始游戏。

【中等】Semaphore 的工作原理是什么?

Semaphore 译为信号量,是一种同步机制,用于控制多线程对共享资源的访问

Semaphore 通过许可证机制灵活控制并发度,既可用于严格互斥(许可证=1 时类似锁),也可用于资源池管理。与 CyclicBarrier/CountDownLatch 不同,它关注的是资源的访问权限而非线程间的同步。

核心作用

  • 控制并发访问资源的线程数量,通过“许可证”(permits)机制实现限流。
  • 适用于:
    • 资源池管理(如数据库连接池)
    • 限流(如接口每秒最大请求数)
    • 互斥场景(类似锁,但更灵活)

关键机制

机制说明
许可证初始化创建时指定许可证数量(如 new Semaphore(3) 表示最多允许 3 个线程同时访问)。
获取许可证线程调用 acquire()
- 若有剩余许可证,立即获取并继续执行;
- 若无许可证,则阻塞等待。
释放许可证线程调用 release():返还许可证,唤醒等待线程。
公平性可指定公平模式(new Semaphore(3, true)),避免线程饥饿。

主要特性

  • 动态调整:可通过 release() 增加许可证,或 reducePermits() 动态减少。
  • 非阻塞尝试tryAcquire() 立即返回是否成功,支持超时(如 tryAcquire(2, TimeUnit.SECONDS))。
  • 可中断acquire() 可被其他线程中断(抛出 InterruptedException)。

代码示例

Semaphore semaphore = new Semaphore(3); // 允许 3 个线程并发

for (int i = 0; i < 5; i++) {
    new Thread(() -> {
        try {
            semaphore.acquire(); // 获取许可证
            System.out.println(Thread.currentThread().getName() + " 占用资源");
            Thread.sleep(2000);
        } catch (InterruptedException e) {
            e.printStackTrace();
        } finally {
            semaphore.release(); // 释放许可证
            System.out.println(Thread.currentThread().getName() + " 释放资源");
        }
    }).start();
}

输出

Thread-0 占用资源
Thread-1 占用资源
Thread-2 占用资源
(2 秒后)
Thread-0 释放资源
Thread-3 占用资源
Thread-1 释放资源
Thread-4 占用资源
...

对比其他同步工具

特性SemaphoreReentrantLockCountDownLatch
核心能力控制并发线程数互斥锁等待事件完成
是否可重入是(但需手动释放)是(可重复加锁)不适用
资源释放必须显式调用 release()必须显式解锁自动递减
适用场景限流、资源池临界区保护主线程等待子线程

典型应用场景

  • 连接池管理:限制同时使用的数据库连接数。
  • 流量控制:限制每秒处理的请求数。
  • 生产者-消费者模型:通过信号量控制缓冲区大小。

Java 并发分工工具

【中等】ForkJoinPool 的工作原理是什么?

ForkJoinPool 通过工作窃取机制高效处理分治任务,适合递归并行计算,核心是本地队列+LIFO 处理+FIFO 窃取。

设计目标

  • 高效执行分治任务:适用于递归分解的可并行计算(如归并排序、MapReduce)。
  • 工作窃取(Work-Stealing):每个线程有自己的任务队列,空闲线程可从其他队列“窃取”任务,避免资源闲置。

核心组件

  • 工作线程(ForkJoinWorkerThread):每个线程维护一个双端队列(Deque),存放自己的任务。
  • 任务队列
    • 本地队列:LIFO(后进先出)处理自己生成的任务(fork())。
    • 窃取队列:FIFO(先进先出)窃取其他线程的任务(公平性)。
  • 任务类型(ForkJoinTask)RecursiveAction(无返回值) / RecursiveTask(有返回值)。

工作流程

  1. 任务拆分(Fork):调用 fork() 将子任务压入本地队列(LIFO)。
  2. 任务执行(Join):调用 join() 等待子任务结果,期间线程会优先处理本地任务
  3. 工作窃取(Stealing):若线程无任务,从其他线程队列尾部窃取任务(FIFO,减少竞争)。

关键特性

  • 低竞争:线程优先处理本地任务,减少同步开销。
  • 负载均衡:空闲线程自动窃取任务,提高 CPU 利用率。
  • 递归优化:适合深度递归任务,避免线程阻塞。

与普通线程池对比

特性ForkJoinPoolThreadPoolExecutor
任务类型分治任务(递归拆分)独立任务
任务调度工作窃取(本地队列+窃取)全局队列(可能竞争)
适用场景CPU 密集型并行计算IO 密集型或短任务

注意事项

  • 避免阻塞操作:不适合 IO 密集型任务(线程数有限,易阻塞)。
  • 任务粒度:过小的任务会增加调度开销。

【中等】CompleteFuture 的工作原理是什么?

CompletableFuture 通过回调链和 Completion 阶段机制实现灵活的异步编程,支持任务编排、结果转换和异常传播,底层采用无锁设计优化性能。

核心设计

  • 异步编程模型:基于 Future 的增强实现,支持显式完成(手动设置结果)
  • 回调驱动:通过链式调用实现异步任务编排
  • 双阶段执行
    • 异步计算阶段(任务执行)
    • 完成阶段(结果处理)

关键组件

  • CompletionStage 接口:定义 50+种组合操作(thenApply/thenAccept/thenRun 等)
  • 依赖关系堆栈:维护任务依赖链(类似链表结构)
  • 执行器支持:可指定自定义线程池(默认使用 ForkJoinPool.commonPool)

工作流程

  1. 任务创建

    CompletableFuture.supplyAsync(() -> "task")
    
  2. 结果转换

    .thenApply(s -> s + " result")
    
  3. 最终处理

    .thenAccept(System.out::println)
    

核心机制

  • 回调链(Completion 链)
    • 每个操作生成新的 Completion 节点
    • 节点间形成单向链表
  • 触发机制
    • 前置任务完成时触发后续操作
    • 支持同步/异步执行切换
  • 结果传递
    • 异常传播(exceptionally 处理)
    • 结果转换(thenApply)

线程模型

  • 默认线程池:ForkJoinPool.commonPool()
  • 可控性
    • 支持显式指定线程池
    • 可强制指定同步执行(thenApply vs thenApplyAsync)

特殊功能

  • 组合操作
    • allOf/anyOf(多任务协调)
    • thenCombine(双源合并)
  • 完成控制
    • complete()/completeExceptionally()(手动完成)
    • obtrudeValue(强制覆盖结果)

性能特点

  • 无锁设计:基于 CAS 操作
  • 零等待:回调立即触发(无轮询)
  • 最小化线程切换:优化执行路径

注意事项

  • 线程泄漏风险:未指定线程池时使用默认池
  • 回调地狱:过度链式调用降低可读性
  • 异常处理:必须显式处理异常

适用场景

  • 服务调用编排
  • 异步流水线处理
  • 多源结果聚合

【中等】Timer 的工作原理是什么?

Timer 通过单线程+优先级队列调度任务,简单但不可靠;生产环境建议用线程池替代。

基本组成

  • Timer:任务调度器,管理任务队列和后台线程。
  • TimerTask:需实现 run(),定义要执行的任务。

核心机制

  • 单线程调度
    • 所有任务由单个后台线程TimerThread)顺序执行。
    • 任务队列按执行时间排序(优先级队列,最小堆)。
  • 任务触发流程
    1. 调用 schedule() 将任务加入队列。
    2. 线程循环检查队首任务,通过 wait(timeout) 休眠至执行时间。
    3. 执行 run() 后,根据调度类型计算下次执行时间:
      • 固定延迟(schedule:基于实际结束时间 + 周期。
      • 固定速率(scheduleAtFixedRate:基于计划开始时间 + 周期(可能追赶延迟)。

关键问题

  • 单线程阻塞:一个任务执行过长或崩溃会导致后续任务延迟/终止。
  • 异常影响:任务抛出未捕获异常时,整个 Timer 线程停止。
  • 资源释放:必须调用 cancel() 避免内存泄漏。

替代方案

ScheduledThreadPoolExecutor 更优:支持多线程、异常隔离、灵活调度。

【困难】时间轮(Time Wheel)的工作原理是什么?

JDK 内置的三种实现定时器的方式,实现思路都非常相似,都离不开任务任务管理任务调度三个角色。三种定时器新增和取消任务的时间复杂度都是 O(logn),面对海量任务插入和删除的场景,这三种定时器都会遇到比较严重的性能瓶颈。对于性能要求较高的场景,一般都会采用时间轮算法来实现定时器

时间轮通过环形数组分片管理定时任务,以 O(1) 时间复杂度实现高效调度,多级设计兼顾长短延迟任务,是高性能定时器的核心实现方案。

时间轮(Timing Wheel)是 George Varghese 和 Tony Lauck 在 1996 年的论文 Hashed and Hierarchical Timing Wheels: data structures to efficiently implement a timer facilityopen in new window 实现的,它在 Linux 内核中使用广泛,是 Linux 内核定时器的实现方法和基础之一。

图片 22.png
图片 22.png

核心设计思想

  • 环形数组结构:采用环形缓冲区(类似时钟表盘)分层管理定时任务
  • 时间分片:将时间划分为固定间隔的槽(tick),每个槽对应一个任务链表
  • 层级扩展:支持多级时间轮(小时/分钟/秒)处理不同精度的时间任务

核心组件

组件作用
环形数组存储各时间槽的任务(如数组长度 60=1 分钟精度,每个槽代表 1 秒)
任务链表每个槽挂载到期时间相同的任务节点
当前指针指向当前时间槽,随 tick 前进
层级指针多级时间轮间的任务传递(如秒轮→分钟轮)

工作流程

  1. 任务添加

    • 计算目标槽位:槽位 = (当前指针 + 延迟时间/tick) % 轮盘大小
    • 相同槽位的任务以链表形式存储
    # 示例:tick=1s,轮盘大小=60,添加 10 秒后执行的任务
    slot = (current_pos + 10) % 60  # 存入第 10 个槽
    
  2. 时间推进(tick)

    • 每次 tick 移动当前指针到下一槽位
    • 执行该槽位所有任务
    • 多级时间轮:当低级轮转完一圈,高级轮降级一个任务到低级轮
  3. 任务降级(多级时间轮)

    当秒级时间轮(60 槽)转完一圈:
    将分钟轮当前槽的任务重新映射到秒轮
    

关键优势

优势说明
O(1) 时间复杂度添加/删除任务仅需计算槽位,与任务数量无关
低内存开销仅存储未到期任务,空槽不占资源
适合高频调度Kafka/Netty 等框架用于心跳检测、超时控制等场景

单级 vs 多级时间轮

类型精度缺点适用场景
单级高精度轮盘大(内存占用高)短延迟任务(<1 分钟)
多级分级精度任务降级开销长短延迟混合任务

实际应用

  • Kafka:延迟消息处理(DelayedOperationPurgatory
  • Netty:连接超时控制(HashedWheelTimer
  • Linux 内核:定时器管理

性能对比

方案添加复杂度触发复杂度内存占用
时间轮O(1)O(1)O(n)
优先级队列O(log n)O(1)O(n)
轮询检测O(1)O(n)O(1)

HashedWheelTimer 是 Netty 中时间轮算法的实现类。

案例

生产者消费者模式

经典问题

(1)什么是生产者消费者模式

(2)Java 中如何实现生产者消费者模式

知识点

(1)什么是生产者消费者模式

生产者消费者模式是一个经典的并发设计模式。在这个模型中,有一个共享缓冲区;有两个线程,一个负责向缓冲区推数据,另一个负责向缓冲区拉数据。要让两个线程更好的配合,就需要一个阻塞队列作为媒介来进行调度,由此便诞生了生产者消费者模式。

(2)Java 中如何实现生产者消费者模式

在 Java 中,实现生产者消费者模式有 3 种具有代表性的方式:

  • 基于 BlockingQueue 实现
  • 基于 Condition 实现
  • 基于 wait/notify 实现

【示例】基于 BlockingQueue 实现生产者消费者模式

public class ProducerConsumerDemo01 {

    public static void main(String[] args) throws InterruptedException {
        BlockingQueue<Object> queue = new ArrayBlockingQueue<>(10);
        Thread producer1 = new Thread(new Producer(queue), "producer1");
        Thread producer2 = new Thread(new Producer(queue), "producer2");
        Thread consumer1 = new Thread(new Consumer(queue), "consumer1");
        Thread consumer2 = new Thread(new Consumer(queue), "consumer2");
        producer1.start();
        producer2.start();
        consumer1.start();
        consumer2.start();
    }

    static class Producer implements Runnable {

        private long count = 0L;
        private final BlockingQueue<Object> queue;

        public Producer(BlockingQueue<Object> queue) {
            this.queue = queue;
        }

        @Override
        public void run() {
            while (count < 500) {
                try {
                    queue.put(new Object());
                    System.out.println(Thread.currentThread().getName() + " 生产 1 条数据,已生产数据量:" + ++count);
                } catch (InterruptedException e) {
                    e.printStackTrace();
                }
            }
        }

    }

    static class Consumer implements Runnable {

        private long count = 0L;
        private final BlockingQueue<Object> queue;

        public Consumer(BlockingQueue<Object> queue) {
            this.queue = queue;
        }

        @Override
        public void run() {
            while (count < 500) {
                try {
                    queue.take();
                    System.out.println(Thread.currentThread().getName() + " 消费 1 条数据,已消费数据量:" + ++count);
                } catch (InterruptedException e) {
                    e.printStackTrace();
                }
            }
        }

    }

}

【示例】基于 Condition 实现生产者消费者模式

public class ProducerConsumerDemo02 {

    public static void main(String[] args) {

        MyBlockingQueue<Object> queue = new MyBlockingQueue<>(10);
        Runnable producer = () -> {
            while (true) {
                try {
                    queue.put(new Object());
                    System.out.println("生产 1 条数据,总数据量:" + queue.size());
                } catch (InterruptedException e) {
                    e.printStackTrace();
                }
            }
        };

        new Thread(producer).start();

        Runnable consumer = () -> {
            while (true) {
                try {
                    queue.take();
                    System.out.println("消费 1 条数据,总数据量:" + queue.size());
                } catch (InterruptedException e) {
                    e.printStackTrace();
                }
            }
        };

        new Thread(consumer).start();
    }

    public static class MyBlockingQueue<T> {

        private final int max;
        private final Queue<T> queue;

        private final ReentrantLock lock = new ReentrantLock();
        private final Condition notEmpty = lock.newCondition();
        private final Condition notFull = lock.newCondition();

        public MyBlockingQueue(int size) {
            this.max = size;
            queue = new LinkedList<>();
        }

        public void put(T o) throws InterruptedException {
            lock.lock();
            try {
                while (queue.size() == max) {
                    notFull.await();
                }
                queue.add(o);
                notEmpty.signalAll();
            } finally {
                lock.unlock();
            }
        }

        public T take() throws InterruptedException {
            lock.lock();
            try {
                while (queue.isEmpty()) {
                    notEmpty.await();
                }
                T o = queue.remove();
                notFull.signalAll();
                return o;
            } finally {
                lock.unlock();
            }
        }

        public int size() {
            return queue.size();
        }

    }

}

【示例】基于 wait/notify 实现生产者消费者模式

public class ProducerConsumerDemo03 {

    public static void main(String[] args) {

        MyBlockingQueue<Object> queue = new MyBlockingQueue<>(10);
        Runnable producer = () -> {
            while (true) {
                try {
                    queue.put(new Object());
                    System.out.println("生产 1 条数据,总数据量:" + queue.size());
                } catch (InterruptedException e) {
                    e.printStackTrace();
                }
            }
        };

        new Thread(producer).start();

        Runnable consumer = () -> {
            while (true) {
                try {
                    queue.take();
                    System.out.println("消费 1 条数据,总数据量:" + queue.size());
                } catch (InterruptedException e) {
                    e.printStackTrace();
                }
            }
        };

        new Thread(consumer).start();
    }

    public static class MyBlockingQueue<T> {

        private final int max;
        private final Queue<T> queue;

        public MyBlockingQueue(int size) {
            max = size;
            queue = new LinkedList<>();
        }

        public synchronized void put(T o) throws InterruptedException {
            while (queue.size() == max) {
                wait();
            }
            queue.add(o);
            notifyAll();
        }

        public synchronized T take() throws InterruptedException {
            while (queue.isEmpty()) {
                wait();
            }
            T o = queue.remove();
            notifyAll();
            return o;
        }

        public synchronized int size() {
            return queue.size();
        }

    }

}
评论
  • 按正序
  • 按倒序
  • 按热度
Powered by Waline v2.15.7