microtime(true)是基准测试起点,关键在排除干扰;应预热缓存、多次采样取中位数、避免路径解析与安全检查开销,全读通常比分块读更快。

用 microtime(true) 测单次文件读取耗时
直接测一次读取没意义,但它是所有基准测试的起点。关键不是“怎么记时间”,而是“怎么排除干扰”。microtime(true) 返回浮点秒数,精度够用,比 time() 精确三个数量级。
常见错误是把 fopen() + fread() + fclose() 全包进去,结果测出来的是磁盘 I/O + PHP 内存拷贝 + 文件系统开销的混合值。如果只想看“PHP 层面读取缓冲区的速度”,应确保文件已缓存(如重复读同一小文件),或用 file_get_contents() 简化路径:
$start = microtime(true);
$content = file_get_contents('/path/to/file.txt');
$elapsed = microtime(true) - $start;注意:file_get_contents() 默认一次性加载全部内容到内存,大文件会撑爆 memory_limit,这不是速度问题,是配置问题。
多次采样取中位数,避免系统抖动干扰
Linux/Windows 的进程调度、磁盘预读、CPU 频率调节都会让单次测量偏差极大。实操中至少跑 10–50 次,丢掉最高最低各 10%,取剩余值的中位数——比平均值更能反映稳定性能。
立即学习“PHP免费学习笔记(深入)”;
示例逻辑要点:
- 用
clearstatcache(true, $file)和opcache_reset()(如有启用)减少缓存干扰 - 每次循环前用
gc_collect_cycles()减少内存碎片影响 - 避免在循环内做字符串拼接或输出,否则测的是
echo而不是读取 - 文件路径尽量用绝对路径,避免
include_path查找开销
fread() 分块读 vs file_get_contents() 全读:吞吐量差异在哪
分块读(如每次 fread($fp, 8192))看似更“可控”,但实际往往更慢:频繁的函数调用、PHP 用户态与内核态切换、额外的边界检查。除非你处理的是 GB 级日志且只关心某几行,否则全读更快。
真正影响速度的不是函数名,是底层行为:
-
file_get_contents()底层调用php_stream_open_wrapper(),走统一流抽象,有内部优化 -
fread()每次调用都触发一次流 read handler,小 buffer(如 1024)会导致 syscall 次数暴增 - 若用
stream_copy_to_stream()中转,还会多一次内存 copy,纯属自找麻烦
验证方法:固定文件大小(如 10MB 随机二进制),分别测两种方式的中位耗时,差值通常在 15%–40% 之间,且差距随文件增大而收窄。
别忽略 realpath() 和 open_basedir 的隐性开销
看起来和读取无关?错。如果路径含 ../ 或符号链接,file_get_contents() 内部会先调用 realpath() 做规范化,这步在高并发下可能成为瓶颈。更隐蔽的是 open_basedir 检查——每次打开文件前,PHP 都要逐段比对路径是否在允许范围内,路径越深、限制越多,开销越大。
排查方法:
- 用
strace -e trace=openat,stat(Linux)看实际系统调用次数 - 临时关闭
open_basedir对比耗时变化 - 把常用文件路径提前
realpath()缓存,避免重复解析
真正的性能卡点,往往不在读取动作本身,而在你没意识到的路径校验和安全检查上。











