Python并发性能提升关键在于匹配任务类型:I/O密集用asyncio,CPU密集用multiprocessing,混合任务需拆分处理;识别“等”或“算”是优化起点,避免GIL陷阱与盲目并发。

Python并发编程不是靠堆线程或进程数量,而是选对模型、避开GIL陷阱、减少等待时间。真正提升十倍性能的关键,在于匹配任务类型——I/O密集用asyncio或threading,CPU密集必须上multiprocessing,再配合合理调度和资源控制。
识别任务类型:先分清是“等”还是“算”
这是所有优化的起点。I/O密集型(比如发HTTP请求、读写文件、数据库查询)大部分时间在等响应,CPU几乎空闲;CPU密集型(比如数值计算、图像处理、加密解密)则持续占用CPU核心。
- 用time.time()粗略测:如果脚本总耗时中,CPU使用率长期低于30%,大概率是I/O密集
- 用psutil.cpu_percent(interval=1)实时观察,对比单任务和多任务下的波动
- 别凭感觉判断——下载100个网页看着慢,其实是I/O密集;但用Python做矩阵乘法慢,就是CPU密集
I/O密集任务:优先用asyncio,别急着开线程
asyncio在单线程内通过事件循环调度协程,开销远低于线程,且无锁竞争问题。requests不支持异步?换httpx或aiohttp就行。
- 把阻塞调用全换成async版本:比如await httpx.AsyncClient().get(url)
- 并发数别盲目设高,通常10–100足够;太多反而触发服务端限流或本地端口耗尽
- 加简单错误重试+退避:asyncio.sleep(0.1 * (2 ** attempt)),避免雪崩
CPU密集任务:multiprocessing是唯一正解
threading在CPU密集场景几乎无效——CPython的GIL会让多线程变成轮流执行。必须用multiprocessing真正并行,但要注意数据传递成本。
立即学习“Python免费学习笔记(深入)”;
- 用concurrent.futures.ProcessPoolExecutor比原始Process更易管理
- 函数必须可序列化(不能是lambda或嵌套函数),参数尽量轻量;大数组用shared_memory或numpy.memmap
- 进程数建议设为os.cpu_count() - 1,留一个核给系统和其他任务
混合任务:拆开处理,别混在一起跑
真实脚本常既有网络请求又有本地计算(比如下载图片→缩略图处理)。强行用一种并发模型会拖垮整体效率。
- 先用asyncio批量下载,保存到临时目录
- 再用ProcessPoolExecutor批量处理本地文件
- 中间结果用文件或Redis暂存,避免进程间传大量数据
- 必要时用asyncio.to_thread()(Py3.9+)包裹短时阻塞操作,不阻塞事件循环
基本上就这些。没有银弹,但只要分清任务性质、选对工具、控住并发度,十倍提升不是夸张——很多脚本卡在串行等API响应,一改成asyncio,耗时直接从2分钟降到12秒。











