Python多线程下logging错乱主因是StreamHandler的write/flush非原子操作;解决方案首选QueueHandler+QueueListener单线程消费,其次显式指定encoding、避免重复初始化。

Python 多线程下 logging 默认不是线程安全的——但你不用手动加锁,只要配置得当,错乱问题就能消失。
为什么多线程日志会错乱
根本原因不是 logging 模块本身不支持并发,而是多个线程同时调用 handler.emit() 时,若 handler 是 StreamHandler(比如输出到 sys.stdout),底层的 write() 和 flush() 操作可能被交叉执行,导致日志行粘连、截断或顺序颠倒。
常见现象包括:
- 两行日志内容挤在同一行,比如
"INFO:root:task1 start\nINFO:root:task2 done"变成"INFO:root:task1 startINFO:root:task2 done" - 日志头(时间、级别、模块名)和消息体分离,比如
"INFO:root: task2 finished"中的冒号后空格被切到下一行 - 使用
RotatingFileHandler时出现IOError: [Errno 9] Bad file descriptor(尤其在频繁重开文件时)
用 logging.getLogger() + StreamHandler 配合 Lock 就够了
logging 的 Logger 对象本身是线程安全的(内部用了 threading.RLock),真正需要保护的是 Handler 的 emit()。但多数场景下,你不需要自己写 Lock——直接用标准库自带的 QueueHandler + QueueListener 组合,才是最稳妥的解法。
立即学习“Python免费学习笔记(深入)”;
实操建议:
- 不要在每个线程里创建独立的
Logger或Handler,统一用logging.getLogger(__name__) - 避免直接向
sys.stdout或sys.stderr写日志;改用QueueHandler把日志事件推入队列 - 用一个单独线程(
QueueListener)消费队列,并由它调用真正的FileHandler或StreamHandler - 如果只是调试且线程数少,临时方案:给
StreamHandler加lock参数(Python 3.12+ 支持):handler = StreamHandler(lock=threading.RLock())
RotatingFileHandler 在多线程下的坑
RotatingFileHandler 的 doRollover() 不是原子操作:它先 rename 原文件,再新建文件,中间存在窗口期。多个线程同时触发 rollover 可能导致文件丢失或 OSError: [Errno 13] Permission denied(Windows 下更明显)。
解决方案只有两个有效路径:
- 禁用自动 rollover,改用外部工具(如
logrotate)管理文件,Python 进程只写固定文件名 - 坚持用
QueueHandler+QueueListener,让 rollover 操作始终发生在单一线程中(即 listener 线程),彻底规避并发冲突 - 绝对不要设置
delay=True并期望靠延迟打开来绕过竞争——这反而会让首次写入变成竞态点
别忽略 formatter 和 encoding 的线程一致性
错乱有时不是来自写入逻辑,而是 Formatter.format() 返回的字符串本身被多个线程同时修改(极少见,但自定义 Formatter 时可能出事)。另外,如果日志含非 ASCII 字符(如中文),而 FileHandler 的 encoding 没显式指定(默认 locale.getpreferredencoding()),不同线程可能拿到不同编码,引发 UnicodeEncodeError 或乱码。
务必做到:
- 所有
FileHandler显式传encoding='utf-8' - 避免在
format()方法里修改共享对象(如全局 dict、类变量) - 如果用了
%(asctime)s,确认datefmt不含可变长度字段(如%Z在某些 locale 下长度不定,可能破坏对齐)
最常被忽略的一点:哪怕用了 QueueHandler,如果你在多个地方调用 basicConfig() 或重复 addHandler(),会导致同一条日志被发多次进队列——错乱就从这里开始。检查你的初始化逻辑是否真的只执行一次。










