多进程适用于CPU密集型任务,I/O密集型优先选线程或异步;用Pool起步,设进程数为cpu_count(),传入顶层函数,只读数据作参数,通信用Queue,务必异常处理并调用close()和join()。

明确任务类型,再选并行方式
不是所有脚本都适合多进程。I/O密集型(如爬网页、读写文件)用多线程可能更轻量;CPU密集型(如数值计算、图像处理)才真正需要多进程来绕过GIL限制。先确认你的瓶颈在CPU还是等待IO——用time.time()粗略测单次耗时,若大部分时间卡在requests.get或open()里,优先考虑异步或线程池;若卡在循环计算或pandas.apply里,多进程才是正解。
用multiprocessing.Pool最稳妥起步
别一上来就手动创建Process对象。对批量独立任务(比如处理1000张图片、解析100个JSON文件),Pool自动管理进程数、分发任务、回收结果,出错也容易捕获。关键点:
- 进程数设为os.cpu_count()或略少(如减1),避免过度切换
- 传入函数必须是模块顶层函数(不能是类方法或lambda),否则Windows下会报PicklingError
- 用pool.map()同步阻塞,pool.map_async()异步+.get()取结果,后者更适合长任务加超时控制
共享状态要谨慎,优先用队列或只读数据
多进程默认不共享内存,全局变量修改不会同步。真要通信,推荐:
- 只读数据:通过函数参数传入(如配置字典、预加载的模型),进程内直接用,安全高效
- 简单汇总:用multiprocessing.Manager().list()或.dict(),但性能较差,仅适合少量状态同步
- 高频通信:用Queue或Pipe,比如一个进程持续采集日志,多个工作进程处理后把结果送回主进程汇总
异常处理和资源清理不能省
子进程崩溃默认静默失败,主进程可能卡死。务必:
立即学习“Python免费学习笔记(深入)”;
- 给pool.map_async()加timeout参数,超时抛出TimeoutError而非挂起
- 用try/except包住worker函数体,打印错误+返回标识,避免单个失败导致整批中断
- Pool用完必须调用pool.close()和pool.join(),否则残留进程吃光系统资源










