应避免用file_get_contents处理大文件,因其会全量加载导致内存溢出;建议改用fopen+feof+fgets流式逐行处理,或fseek+fread分块扫描跨行内容,必要时委托sed/perl等系统工具执行。

直接用 file_get_contents 读大文件会崩内存
PHP 默认把整个文件加载进内存,100MB 文件就占 100MB 内存,超限直接报 Fatal error: Allowed memory size exhausted。这不是代码写得不对,是设计如此——file_get_contents 和 file_put_contents 本质就是“全量操作”,不区分文件大小。
实操建议:
- 单次处理超过 5MB 的文本文件,就别碰
file_get_contents; - 确认当前
memory_limit(用ini_get('memory_limit')查),但别靠调高它来硬扛; - 优先改用流式处理:打开文件句柄,逐块读、逐块改、逐块写。
用 fopen + fgets 行级替换最稳妥
适合按行匹配替换(比如日志中改 IP、批量修 URL 路径),逻辑清晰、内存占用恒定(只存一行)。注意 fgets 默认一次最多读 1024 字节,超长行会被截断——必须显式传长度参数。
示例关键片段:
立即学习“PHP免费学习笔记(深入)”;
$in = fopen('/path/to/big.log', 'r');
$out = fopen('/path/to/big.log.new', 'w');
while (($line = fgets($in, 8192)) !== false) {
$line = str_replace('http://old.com', 'https://new.com', $line);
fwrite($out, $line);
}
fclose($in); fclose($out);
// 替换完成后 mv -f big.log.new big.log
常见坑:
-
fgets保留换行符\n,替换后别多出空行; - 二进制文件(如 PDF、图片)不能用此法,会破坏字节流;
- 如果原文件编码不是 UTF-8,
str_replace可能错位,需先mb_convert_encoding。
需要正则或跨行匹配?用 fseek + fread 分块扫
当要替换的内容可能跨行(如 HTML 标签、JSON 片段),或者要用 preg_replace,就得自己控制读取窗口。核心思路是:每次读固定大小(如 64KB)的块,但预留前一块末尾的若干字节,避免关键词被切开。
关键点:
- 用
fseek($fp, $pos, SEEK_SET)控制读取起点; - 每块读取前,先回退
min(缓冲区长度, 关键词最大长度)字节重叠读; -
preg_replace后,用fwrite写入新文件,不要尝试原地修改; - 替换完记得用
fflush($out)确保写入磁盘,尤其在循环中。
Linux 下可考虑 sed -i 或 perl -pi 委托系统处理
PHP 不是干这个的。如果运行环境是 Linux 且有 shell 权限,外部命令往往更快更省内存:
sed -i 's/http:\/\/old\.com/https:\/\/new\.com/g' /path/to/big.log
# 或支持 Unicode 的 perl 版
perl -pi -e 's{http://old\.com}{https://new\.com}g' /path/to/big.log
注意:
- PHP 中用
exec()调用时,务必过滤文件路径,防命令注入; -
sed -i在 macOS 上语法不同(需加备份后缀:sed -i '.bak' ...); - 大文件下
perl比sed更稳,尤其含 UTF-8 或复杂正则时。
真正难的不是“怎么换”,而是判断该不该在 PHP 里换——IO 密集型任务交给系统工具,通常更可靠。











