dd测顺序写速需加conv=fdatasync或oflag=direct以绕过缓存;iostat -x 1重点关注%util、await(>10ms需警惕);fio才可模拟真实负载,须设--direct=1、合理iodepth;hdparm -Tt结果无实际IO参考价值。

用 dd 测顺序写速度,但别信默认结果
直接跑 dd if=/dev/zero of=testfile bs=1M count=1024 看到的数字往往虚高——因为 Linux 默认开启页缓存,实际写入可能还没落到磁盘。必须加 conv=fdatasync 强制落盘,否则测的是内存带宽。
- 正确命令:
dd if=/dev/zero of=testfile bs=1M count=1024 oflag=direct(绕过缓存)或dd if=/dev/zero of=testfile bs=1M count=1024 conv=fdatasync(等数据真正刷盘) -
oflag=direct对齐要求严:bs必须是 512 字节整数倍,且文件系统块大小也要对齐,否则报错Invalid argument - 重复测试前记得
sync && echo 3 > /proc/sys/vm/drop_caches清缓存,不然第二次结果会异常快
iostat -x 1 看实时 IO 负载,重点盯这几个字段
iostat -x 1 是观察真实负载最稳的方式,但默认输出里真正有用的就几个字段:看懂它们比看 MB/s 数字更重要。
-
%util接近 100% 不代表硬盘满负荷——它只表示设备忙的时间比例,NVMe 盘可能有多个队列,这个值早早就顶了 -
await(平均每次 IO 等待毫秒数)超过 10ms 就该警惕,机械盘常在 5–15ms,SSD 应该稳定在 1ms 内 -
svctm已被内核废弃,新版iostat不再显示,别在文档里找它 - 注意设备名:用
lsblk确认你要测的是nvme0n1还是sda,混用会导致数据完全对不上
fio 模拟真实场景,参数选错等于白测
fio 是唯一能区分随机读、4K 随机写、混合负载的工具,但新手常因参数误设导致结果失真。
- 测数据库类负载用:
fio --name=randwrite --ioengine=libaio --iodepth=32 --rw=randwrite --bs=4k --direct=1 --size=2G --runtime=60 --time_based -
--iodepth设太高(如 128)可能压垮控制器,普通 SATA SSD 建议 ≤64,NVMe 可到 256 - 忘加
--direct=1会走缓存,结果比真实性能高 5–10 倍;加了却没卸载 LVM 或加密层,可能触发额外拷贝,反而拖慢 - 测试前先
hdparm -I /dev/sdX | grep "Nominal Media"确认是否启用 TRIM,否则长期测试后性能会阶梯式下跌
别用 hdparm -Tt 判断硬盘好坏
hdparm -Tt /dev/sda 测出来的是“缓存到内存”和“磁盘到内存”的理论极限,跟实际 IO 完全无关,尤其对 SSD 和 RAID 完全失效。
-
-T测的是 Linux 页缓存带宽,结果常达 2–3 GB/s,和硬盘物理能力毫无关系 -
-t测的是连续大块读,但强制单线程、无队列深度、不绕缓存,结果偏低且不可比 - 遇到
HDIO_DRIVE_CMD(identify) failed错误,大概率是 NVMe 盘或 SCSI 设备,hdparm根本不支持,硬跑只会误导
fio 用 1 个队列测出 50K IOPS,用 32 个队列可能飙到 300K——不是工具不准,是你没告诉它你到底想测什么。











