必须用 fopen + fseek + fread + fwrite 流式分段处理大文件,避免内存溢出;r+b 模式配合偏移控制实现原地写回,文本需软分段避字符截断,windows 下须加 flock 防并发冲突。

大文件用 fopen + fseek 逐块读取才不崩内存
PHP 直接 file_get_contents 读几百 MB 文件,大概率触发 Fatal error: Allowed memory size exhausted。必须放弃“全量加载”思路,改用流式分段处理。
核心是:打开文件句柄后,用 fseek 定位、fread 按固定长度(如 8192 字节)读取、处理完立即释放缓冲区。
-
fopen($path, 'r+b')—— 必须用r+b模式,后续才能原地写回;只读模式r无法修改 - 每次
fread($fp, 8192)后,用ftell($fp)记下当前偏移,方便定位下次读取起点 - 别依赖
feof()做循环条件——某些网络文件系统或特殊编码下它可能失效,更稳妥的是检查fread返回值是否为空
修改内容后怎么精准写回原位置?用 fseek + fwrite 配合偏移计算
分段读取只是第一步,真正难点在于:改完一段内容,如何把它写回文件的**原始位置**,且不破坏前后数据?关键靠字节偏移控制。
例如你读了第 16384–24575 字节这一段,处理后新内容长度变成 8100 字节(比原来少 96 字节),这时不能直接 fwrite,否则会把后面所有内容往前挤乱。
立即学习“PHP免费学习笔记(深入)”;
- 若新内容长度 ≤ 原长度:先
fseek($fp, $start_offset),再fwrite($fp, $new_chunk),末尾用str_pad('', $original_len - strlen($new_chunk), "\x00")补零(可选,避免残留脏字节) - 若新内容长度 > 原长度:无法安全原地覆盖,得另开临时文件写入全部数据,最后替换原文件(
rename()) - 务必在
fwrite前调用fseek重置指针,否则默认追加到文件末尾
遇到换行符、UTF-8 多字节字符怎么办?别按字节硬切
直接按固定字节数(如 8192)切割,极容易把一个 UTF-8 字符或一行文本从中间劈开,导致解码失败或逻辑错乱。
实际处理时要“软分段”:先按块读,再往回找最近的合法边界。
- 读完一块后,用
mb_strrpos($chunk, "\n", 0, 'UTF-8')找最后一个换行符位置,把该行完整保留在本段;剩余部分留到下一段开头拼接 - 对纯二进制内容(如图片头信息修改),可忽略此问题;但只要涉及文本、JSON、XML,就必须校验字符边界
- PHP 8.0+ 可用
mb_scrub()尝试修复损坏的 UTF-8 字节流,但不如预防有效
为什么不用 file() 或 stream_get_line()?它们不适用于原地修改
file() 把整文件按行读进数组,内存占用和 file_get_contents 差不多;stream_get_line() 虽支持按分隔符读取,但它内部仍会缓存整行,且不提供当前文件指针位置,无法配合 fseek 实现精准覆写。
真正可控的分段读写闭环,只能靠 fopen / fseek / fread / fwrite 这组底层函数组合。
- 别被
SplFileObject的高级接口迷惑——它封装了fgets,本质仍是逐行读,且不暴露底层指针,无法实现“读一段 → 改 → 写回原位” - 如果业务允许生成新文件,用
file_put_contents($tmp, $new_data, FILE_APPEND)累加更简单;但要求“原地修改”,就绕不开偏移计算和指针控制
最易被忽略的一点:Windows 下文件锁行为和 Linux 不同,r+b 模式下并发写可能出错,生产环境务必加 flock($fp, LOCK_EX);另外,SSD 和 NFS 对小块随机写性能差异极大,测试时得贴合真实部署环境。











