处理大文件应避免一次性加载,优先逐行读取(for line in file_obj),其次分块读取二进制内容;写入宜批量缓冲并及时刷新;善用csv、gzip、shutil等标准库优化IO。

处理大文件时,核心是避免一次性把全部内容加载到内存。Python默认的read()或readlines()在GB级文件上极易导致内存溢出。关键思路是:流式读取、分块处理、及时释放、按需写入。
逐行读取,不加载全文
用for line in file_obj:最省内存,Python内部做了缓冲优化,比readline()更简洁可靠。
- ✅ 正确写法:with open("huge.log", "r", encoding="utf-8") as f:
for line in f:
if "ERROR" in line:
process_error(line) - ❌ 避免:
f.readlines()(全读进列表)、f.read()(全读成字符串)
按固定大小分块读取二进制内容
适合处理视频、日志压缩包、数据库导出文件等非文本或超长行场景。每次只读几MB,可控且稳定。
- 设置合理块大小(如8192字节):chunk_size = 8192
with open("data.bin", "rb") as f:
while True:
chunk = f.read(chunk_size)
if not chunk:
break
handle_chunk(chunk) - 注意:文本模式下分块可能切开一行,如需完整行,优先用逐行读;若必须分块解析,需手动拼接末尾不完整行
高效写入:批量+缓冲+及时刷新
频繁调用write()会产生大量I/O开销。合并小写入、利用系统缓冲、必要时手动flush()更稳。
一个功能强大、性能卓越的企业建站系统。使用静态网页技术大大减轻了服务器负担、加快网页的显示速度、提高搜索引擎推广效果。本系统的特点自定义模块多样化、速度快、占用服务器资源小、扩展性强,能方便快捷地建立您的企业展示平台。简便高效的管理操作从用户使用的角度考虑,对功能的操作方便性进行了设计改造。使用户管理的工作量减小。网站互动数据可导出Word文档,邮件同步发送功能可将互动信息推送到指定邮箱,加快企业
立即学习“Python免费学习笔记(深入)”;
- 写入前先收集结果(如列表),再用
writelines()一次写入:results = []
for item in process_large_data():
results.append(f"{item.id},{item.value}\n")
with open("output.csv", "w", encoding="utf-8") as f:
f.writelines(results) - 对实时性要求高的场景(如日志),打开文件时加
buffering=1启用行缓冲,或写完后调用f.flush()
借助标准库提升效率
不用造轮子。内置模块已针对大文件优化:
-
csv模块:用
csv.reader(f)逐行解析,不加载整表;写入用csv.writer(f).writerows(data) -
gzip/bz2:直接读写压缩文件,节省磁盘IO:
import gzip; with gzip.open("log.gz", "rt") as f: -
shutil.copyfileobj():高效复制大文件(如备份),底层用系统级缓冲:with open("src.dat", "rb") as src, open("dst.dat", "wb") as dst:
shutil.copyfileobj(src, dst, length=1024*1024)
基本上就这些。不复杂但容易忽略——关键是养成“不贪心读、不盲目写”的习惯。文件越大,越要信任Python的迭代协议和系统缓冲机制。









