ProcessPoolExecutor 提供简洁安全的多进程并行,核心为“提交任务→获取结果”,支持 submit+result、map 和 as_completed 三种模式,需注意 pickle 序列化、内存隔离、max_workers 设置及 Windows 下的 if name == '__main__': 保护。

Python 中用 ProcessPoolExecutor 实现多进程并行,比手动管理 multiprocessing.Process 更简洁、安全,也更接近线程池的使用习惯。核心是“提交任务→获取结果”,自动处理进程创建、通信和回收。
基本用法:submit + result
适用于少量独立任务,需要立即或稍后获取返回值:
- 用
with ProcessPoolExecutor(max_workers=4) as executor:管理生命周期,退出时自动关闭进程池 -
future = executor.submit(func, arg1, arg2)提交单个任务,立刻返回Future对象 -
result = future.result()阻塞等待执行完成并取回返回值(抛异常也会在这里触发)
例子:计算多个数的平方
def square(x): return x * xwith ProcessPoolExecutor(max_workers=2) as pool:
f1 = pool.submit(square, 3)
f2 = pool.submit(square, 5)
print(f1.result(), f2.result()) # 输出:9 25
批量提交:map 更简洁
当有一组输入数据、对应执行同一函数时,map 比循环调用 submit 更直观,且保持输入顺序:
立即学习“Python免费学习笔记(深入)”;
-
results = list(pool.map(square, [2, 4, 6, 8]))返回按原顺序排列的结果列表 - 注意:
map是懒执行,转成list或遍历时才真正调度和等待 - 若某次调用出错,异常会在遍历到对应位置时抛出,不是全部执行完才报
异步处理多个任务:as_completed
不关心执行顺序,谁先完成谁先处理,适合耗时差异大的场景:
- 用
futures = [pool.submit(func, x) for x in args]先批量提交 -
for future in as_completed(futures):迭代已结束的Future(非按提交顺序) - 每个
future.result()取值不会阻塞,因为as_completed已保证它已完成
这样可边完成边记录日志、写文件或提前终止后续任务。
注意事项和常见坑
- 目标函数和参数必须能被
pickle序列化(不能是 lambda、嵌套函数、类实例方法等) - 进程间不共享内存,全局变量修改不会同步;传参和返回值是拷贝,大对象会带来序列化开销
-
max_workers不宜设得远超 CPU 核心数(如 64 核机器设 100),反而因上下文切换降低性能 - Windows 下需将进程池代码放在
if __name__ == '__main__':块中,防止子进程重复导入启动










