python多进程间全局变量不共享,子进程修改不影响父进程;需用value、manager、queue或文件/数据库实现跨进程数据共享。

在 Python 多进程编程中,全局变量的行为与单进程环境存在本质差异。由于每个子进程拥有独立的内存空间,父进程中定义的全局变量不会被子进程自动共享或同步。以下是揭示该现象的具体表现及验证方式:
一、子进程无法修改父进程的全局变量
Python 的 multiprocessing 模块启动新进程时会调用 fork(Unix/Linux/macOS)或 spawn(Windows),导致子进程获得父进程内存的副本。因此,子进程对全局变量的任何赋值操作仅作用于其自身地址空间,父进程中的原始变量保持不变。
1、定义一个全局变量 counter = 0 在模块顶层。
2、创建一个目标函数 worker(),在其中执行 counter += 1 并打印当前值。
立即学习“Python免费学习笔记(深入)”;
3、使用 multiprocessing.Process(target=worker) 启动两个子进程。
4、主进程在子进程 join() 后打印 counter 的值,结果仍为 0。
二、使用 multiprocessing.Value 实现跨进程整数共享
Value 提供了一个可被多个进程安全访问的 ctypes 共享对象,底层通过系统共享内存实现,所有进程读写的是同一块物理内存区域。
1、导入 from multiprocessing import Value, Process。
2、声明共享变量 shared_counter = Value('i', 0),其中 'i' 表示有符号整型。
3、将 shared_counter 作为参数传入 worker 函数。
4、在 worker 中调用 shared_counter.value += 1 进行原子更新。
5、主进程最后打印 shared_counter.value,可观察到累加结果。
三、使用 multiprocessing.Manager 提供动态共享对象
Manager 返回一个代理对象,支持列表、字典、命名空间等复杂结构的跨进程共享,其内部通过独立的管理进程协调数据同步,适合需要频繁增删键值或嵌套结构的场景。
1、创建 manager 实例:mgr = Manager()。
2、生成共享字典:shared_dict = mgr.dict()。
3、在 worker 中执行 shared_dict['count'] = shared_dict.get('count', 0) + 1。
4、主进程调用 shared_dict.copy() 获取当前快照并检查内容。
四、父子进程间通过 Queue 传递变量快照
Queue 是线程与进程安全的通信通道,虽不直接共享内存,但可用于在进程间传递变量状态的副本,适用于一次性或阶段性同步需求。
1、创建队列实例:q = Queue()。
2、子进程在完成计算后调用 q.put({'result': computed_value})。
3、父进程调用 q.get() 接收数据包并提取字段。
4、多次 put/get 可模拟多轮状态传递,但每次均为深拷贝,无实时性保证。
五、使用文件或数据库作为外部共享媒介
当进程数量较多或需持久化状态时,可借助磁盘文件(如 JSON、SQLite)作为中介,规避内存共享限制,同时具备天然的跨语言兼容性。
1、约定统一路径的临时文件,例如 /tmp/shared_state.json。
2、子进程使用 json.dump() 写入更新后的字典内容,注意加锁避免竞态。
3、父进程定期调用 json.load() 读取最新状态。
4、对 SQLite 数据库执行 INSERT 或 UPDATE 操作,并设置 WAL 模式提升并发写入安全性。










