应使用 fopen + fgets 逐行读取大文件,避免 file_get_contents 导致内存溢出;注意处理 false 返回值、及时 fclose、慎用 SplFileObject 默认配置。

用 fopen + fgets 逐行读,别用 file_get_contents
PHP 默认把整个文件载入内存,file_get_contents 读几个 MB 还行,上 G 就直接 OOM。必须绕过一次性加载——核心是保持文件句柄打开,按需拉取一行。
常见错误现象:Fatal error: Allowed memory size of XXX bytes exhausted,或者脚本卡住几秒后崩溃。
-
fopen($path, 'r')打开只读流,不是'rb'(二进制模式在 Windows 下可能跳过换行符) - 用
fgets($fp)读,它自动识别\n、\r\n,返回含换行符的字符串,记得trim()去掉 - 循环里别漏
if (false === $line) break;,文件末尾fgets返回false,不是空字符串 - 读完务必
fclose($fp),否则句柄泄漏,Linux 下最多打开 1024 个文件,批量处理时很快崩
大文件分块读(fread)适合解析固定结构,比如日志或 CSV
如果每行长度差异极大,或你要按字节边界做预处理(比如跳过 BOM、识别编码),fgets 效率低且不可控,改用 fread 分块更稳。
使用场景:Nginx 日志、数据库导出的纯文本 dump、自定义二进制协议头+数据体。
立即学习“PHP免费学习笔记(深入)”;
- 每次
fread($fp, 8192)读 8KB,比 1KB 或 64KB 更平衡 I/O 和内存压力 - 自己实现行切分:缓存未结束的行片段,拼到下一块里再
explode("\n", $buffer) - 注意最后一块可能没换行符,
substr($buffer, -1) !== "\n"就得暂存 - UTF-8 多字节字符不能在中间截断,
fread按字节读没问题,但后续mb_函数处理前要确保完整字符
SplFileObject 看似简洁,但默认行为容易翻车
它封装了 fopen + fgets,语法干净,但底层仍是一行一行拉——问题出在默认配置。
常见错误现象:中文乱码、跳过第一行、foreach 循环突然中断、内存缓慢上涨。
- 构造时加
SplFileObject::SKIP_EMPTY | SplFileObject::READ_AHEAD,否则空行会触发异常 - 必须手动调
$file->setFlags(SplFileObject::READ_CSV)才能正确解析 CSV,否则逗号全当分隔符 - 不设
setMaxLineLen(0)(0 表示无限制),超长行会被截断,默认只读 0 字节?不对,是默认 0 表示不限,但旧 PHP 版本有 bug,建议显式写0 - 它内部缓存当前行位置,
key()返回行号从 0 开始,但current()返回的是带换行符的原始字符串
内存和性能关键点:别碰 file()、file_get_contents,也别在循环里反复 stat
所有把整文件塞进数组或字符串的函数,对 >50MB 的文件就是定时炸弹。另外,有些同学会在每行处理前 is_file($path) 或 filesize($path),这会触发系统调用,100 万行就是 100 万次磁盘 stat。
-
file()和file_get_contents()在 php.ini 里即使调大memory_limit,也只是延缓崩溃,不解决根本问题 - 用
stream_get_meta_data($fp)['unread_bytes']查剩余字节数,比filesize()快得多(不用重新查 inode) - 如果要进度反馈,算已读字节数比行号靠谱——
ftell($fp)是当前位置,减去初始ftell就是已读量 - PHP 8.1+ 支持
StreamWrapper自定义协议,但普通日志解析没必要,徒增复杂度
真正难的不是“怎么读”,而是“读的过程中怎么不被换行符坑、不被编码吞、不被句柄数卡死”。这些细节藏在文档角落,但线上一出问题,就卡在那儿不动。











