threading.Thread中改全局变量看似“没生效”实为非原子操作导致竞态:counter += 1被拆为读、加、写三步,线程切换引发覆盖;应使用Lock保护所有读写路径,或选用queue.Queue等线程安全结构。

为什么 threading.Thread 里改全局变量没生效
不是“没生效”,而是多个线程同时读写同一块内存时,Python 的 int、list、dict 等对象操作并非原子——比如 counter += 1 实际拆成读值、加 1、写回三步,线程可能在中间被切换,导致覆盖彼此的修改。
常见现象:启动 10 个线程各执行 1000 次 counter += 1,最终 counter 却远小于 10000。
- 别用
global变量直接传递状态,尤其涉及增删改操作 - 避免在多线程中直接共享可变对象(如
list.append()) -
threading.local()可以隔离线程本地副本,但不解决“协同更新”需求
用 threading.Lock 保护临界区的正确姿势
锁不是加在变量上,而是加在“访问该变量的一段逻辑”上。必须确保所有读写路径都经过同一把锁,且锁的粒度要合理。
错误写法:lock.acquire() 后忘记 lock.release(),或只在写入时加锁、读取时不加——读操作同样可能读到中间态数据。
立即学习“Python免费学习笔记(深入)”;
预订版是外卖通系列软件之一,此版本和专业外卖版不一样,专业预订版侧重于餐饮业在线预订的实现。平台为用户提供大量的餐饮数据,由于人们对吃的要求苛刻与不通,用户不用在为去哪里吃饭而发愁,用户可以通过平台筛选就餐目标,然后执行预订操作;平台作为就餐者和商家的介质,从平台预订的可以享受一定的折扣,消费者同样可以从预订结果中获得一定的积分收入;同样,和外卖版一样,集成了短信通知、广告管理、专题管理、推广、多
- 推荐用
with lock:语句,自动处理异常下的释放 - 不要在锁内做耗时操作(如网络请求、文件读写),否则严重拖慢并发效率
- 避免嵌套加锁或跨函数传递锁对象,容易引发死锁
- 示例:
lock = threading.Lock() def increment(): with lock: global counter counter += 1
queue.Queue 比手动加锁更安全的场景
当线程间需要传递数据(如生产者往队列塞任务、消费者取任务执行),queue.Queue 内部已用锁和条件变量封装好线程安全操作,无需自己管理锁。
它不只是“线程安全的列表”,还内置阻塞、超时、任务完成通知(task_done() + join())等机制,适合解耦协作逻辑。
-
q.get()和q.put()是原子的,但取出后的处理仍需自行保证线程安全(比如把结果写进同一个字典) - 不要用
q.qsize()判断是否为空——它返回的是瞬时快照,无法替代q.empty()或阻塞式get() - 若需多个消费者协作处理一批任务,配合
q.task_done()和q.join()才能准确等待全部完成
为什么 threading.RLock 不是万能解药
RLock(可重入锁)允许同一线程多次 acquire(),适用于递归调用或函数内部重复进入临界区的场景。但它不解决“多线程竞争同一资源”的本质问题,反而可能掩盖设计缺陷。
典型误用:用 RLock 替代普通 Lock 来“避免死锁”,结果只是让错误更难复现——因为线程 A 持有锁后反复进入,其他线程全程被阻塞,吞吐量归零。
- 只有明确需要同一线程多次获取同一把锁时才用
RLock(例如带缓存的递归计算函数) - 不同线程之间仍存在完全一样的竞争风险,该加锁的地方一点不能少
- 调试时
RLock的持有者信息更难追踪,出问题时比普通锁更隐蔽
dict 的 in 判断、len() 调用,或者用 list 当标志位(if flag_list:)。这些看似只读的操作,在并发下仍可能因结构变化而抛出异常或返回错误结果。









