当前脏页比例需通过/proc/meminfo中Dirty:值与MemTotal×vm.dirty_ratio/100比较,阈值由vm.dirty_ratio和vm.dirty_background_ratio决定;sync不保证立即清空脏页,drop_caches无效,SSD上调dirty_ratio未必更稳。

怎么看当前脏页比例和阈值
Linux 内存里的“脏数据”指已修改但还没写回磁盘的页面,关键看 vm.dirty_ratio 和 vm.dirty_background_ratio 这两个内核参数,它们决定了什么时候开始后台刷盘、什么时候阻塞写入。
实操建议:
- 查当前值:
sysctl vm.dirty_ratio vm.dirty_background_ratio或读/proc/sys/vm/dirty_ratio - 查实时脏页状态:
cat /proc/meminfo | grep -i dirty,重点关注Dirty:(待写回字节数)和Writeback:(正在写回字节数) - 注意单位是 kB,不是 MB;
Dirty:值持续接近MemTotal × dirty_ratio / 100就容易卡写入
为什么 sync 后 Dirty: 还不归零
sync 只是触发刷盘请求,并不保证立即完成。内核会按策略分批提交 IO,尤其在高负载或慢盘场景下,Writeback: 可能持续几分钟,Dirty: 缓慢下降是正常现象。
常见错误现象:
- 执行
sync后立刻cat /proc/meminfo,发现Dirty:几乎没变 → 误以为没生效 - 监控脚本用单次
sync + sleep 1 + check Dirty判断是否刷完 → 结果不可靠
更稳妥的做法是轮询 Writeback: 是否降为 0,或配合 ionice -c 3 sync 降低刷盘优先级避免干扰业务。
echo 3 > /proc/sys/vm/drop_caches 能清脏页吗
不能。这个命令只清理 PageCache、dentries 和 inodes,对脏页(Dirty pages)完全无效。强行执行后 Dirty: 不变,甚至可能因释放缓存导致后续写入更快变脏。
真正清脏页只有两种方式:
- 等内核自动刷:依赖
vm.dirty_expire_centisecs(默认30秒)和写回线程 - 手动强制同步:
sync && echo 1 > /proc/sys/vm/compact_memory(后者非必需,仅辅助内存整理)
别迷信 drop_caches,它解决不了脏页堆积问题,反而可能掩盖 IO 瓶颈。
SSD 上调高 vm.dirty_ratio 真的更稳吗
不一定。虽然 SSD 随机写延迟低,但连续大块脏页爆发仍会打满队列深度,造成 write() 系统调用阻塞。高 dirty_ratio(比如设到 80)会让内核更晚介入,一旦触发,刷盘压力更大。
推荐做法:
- 保持默认
dirty_ratio=20,把dirty_background_ratio从 10 调到 5–8,让后台线程更早启动,平滑 IO - 搭配
vm.dirty_writeback_centisecs=500(每 5 秒唤醒一次写回线程),避免集中爆发 - 观察
/proc/pressure/io中some和full值,持续 >0.2 表示 IO 已开始争抢
脏页策略不是越大越好,关键是节奏可控。IO 压力看不见摸不着,/proc/meminfo 里那几行数字背后,是整个存储栈的呼吸节律。








