根本原因是PHP通过shell_exec等函数每次调用Python都要重复启动解释器、加载模块并进行进程间字符串传输;应改用Python常驻服务(如Flask/FastAPI)配合PHP复用curl连接,或使用proc_open非阻塞流式处理。

PHP调用Python读大文件为啥慢
根本原因不是Python本身慢,而是PHP用shell_exec、exec这类函数启动新进程去跑Python脚本——每次都要加载Python解释器、导入模块、初始化环境。对一个100MB的文本文件,光启动开销就可能占到总耗时60%以上;更别说父子进程间还要通过stdout/stdin做字符串传输,涉及编码转换、内存拷贝、缓冲区等待。
绕过PHP调用,改用Python常驻服务
把Python做成HTTP或Socket服务,PHP只发请求、收结果,避免反复启停。这是高频处理大文件最有效的解法。
- 用
Flask或FastAPI写个轻量端点,接收文件路径或base64片段,返回结构化结果(如统计行数、提取字段) - Python端用
open(..., buffering=8192)控制缓冲区,避免默认全缓存;逐行for line in f:而非f.readlines() - PHP用
curl_init复用连接,设置CURLOPT_TCP_KEEPALIVE防连接重建 - 关键:Python服务必须提前启动(systemd或supervisord托管),不能由PHP临时
exec('python3 server.py &')拉起
实在要PHP里直接调Python,至少得关掉stdout阻塞
如果业务强耦合、无法拆服务,至少别让PHP干等Python吐完全部输出再解析。
- 改用
proc_open+stream_set_blocking($pipes[1], false)非阻塞读取,边读边处理流式数据 - Python脚本里加
sys.stdout.flush(),尤其在循环中每处理N行就刷一次 - 禁用Python的输出缓冲:
python3 -u script.py(-u参数强制unbuffered) - 别传整个文件内容给Python——改传路径,让Python自己
open,避免PHP内存复制和escapeshellarg截断风险
大文件处理本身该避开的坑
无论用哪种方式,文件操作逻辑不对,再快的调用链也白搭。
立即学习“PHP免费学习笔记(深入)”;
- 别用
file_get_contents或readfile加载整文件进PHP内存——1GB文件直接OOM - Python里避免
pandas.read_csv直接读大CSV,改用csv.reader或pd.read_csv(chunksize=10000) - Linux下注意
/tmp是否挂载为tmpfs(内存盘),大文件临时写入可能触发OOM killer - 如果只是统计、grep、切片,优先用系统命令:
exec("wc -l 比任何Python脚本都快
真正卡点往往不在语言切换,而在“以为在流式处理”实际却在攒全量数据——检查Python脚本里有没有list(f)、json.load(f)这种隐式全读操作,比优化调用方式重要得多。











