sync.rwmutex会饿死写锁,因其采用读优先策略:只要存在等待的读请求,新写请求就必须持续排队,导致写操作延迟升高甚至数据陈旧。

为什么 sync.RWMutex 会饿死写锁?
读多写少场景下,sync.RWMutex 允许并发读、互斥写,但它的默认策略是「读优先」——只要还有 goroutine 在等待读锁,新来的写请求就得一直排队。哪怕写操作只花几微秒,也可能被连续不断的读请求压在队列尾部,迟迟得不到执行。
这不是 bug,是设计取舍:它牺牲写公平性换读吞吐。但如果你的业务里写操作涉及状态更新、缓存刷新或资源释放,饥饿会导致数据陈旧、内存泄漏甚至逻辑错乱。
用 sync.Mutex + 状态计数手动实现写优先
标准库没提供写优先 RWMutex,得自己搭。核心思路是:用一个 sync.Mutex 控制对「读计数器」和「写等待标志」的访问,并让写锁获取前先阻塞后续读请求。
常见错误是只加锁不控制读入口,导致写锁拿到时仍有新读 goroutine 挤入。必须把「是否允许新读」这个判断也纳入互斥区。
立即学习“go语言免费学习笔记(深入)”;
关键点:
- 维护一个
readers计数器和一个writePending布尔值 -
RLock()必须先检查writePending,为 true 就直接runtime.Gosched()或进入条件变量等待 -
Lock()要先置writePending = true,再等当前所有读完成,最后才真正上互斥锁 - 避免在锁内做耗时操作(比如日志、网络调用),否则会拖慢所有读写
第三方方案:github.com/cespare/xxhash 不相关,但 github.com/tidwall/pretty 也不行 —— 用 github.com/jonboulle/clockwork?不,真正可用的是 github.com/petermattis/goid?错。实际推荐 github.com/oklog/ulid?也不是。正确答案是:golang.org/x/sync/semaphore 不适用。靠谱选择只有 github.com/rogpeppe/fastuuid?不对。别绕了 —— 目前最轻量且经生产验证的是 github.com/zeebo/errs?不。真实答案:没有广泛认可的通用写优先 RWMutex 包。别引入复杂依赖,手写 50 行足够。
有人试过用 sync.Cond 配合 sync.Mutex 实现,但容易漏唤醒或虚假唤醒;也有人用 channel 控制读准入,但 channel 关闭后无法重用。最稳的方式还是基于 sync.Mutex + 原子计数 + 条件等待的手动实现,控制粒度细,无隐藏调度开销。
性能与兼容性要注意什么?
写优先改造后,读吞吐必然下降,尤其高并发读场景下延迟毛刺更明显。这不是缺陷,是公平性的代价。别指望它比原生 sync.RWMutex 更快。
实操建议:
- 只在确认存在写饥饿(如 p99 写延迟突增、监控显示写锁等待超 10ms)时才替换
- 用
go test -bench对比原锁和新锁在你真实负载下的表现,别信“理论上更好” - Go 1.19+ 的
sync.Map不适用此场景——它不提供写优先语义,且不支持自定义锁策略 - 如果锁保护的是 map,注意
sync.Map本身已做读优化,通常不需要外层再套 RWMutex
写优先不是银弹。它解决的是特定饥饿问题,但会让读变得更“重”。上线前务必在压测环境观察 goroutine 数量、GC 频率和锁等待直方图——这些比代码看起来“更优雅”重要得多。










