会。open()直接读大文件会因一次性加载全部内容导致MemoryError;应使用for line in f:按行迭代,或用f.read(chunk_size)分块读取,chunk_size推荐8KB–64KB。

用 open() 直接读大文件会崩内存?
会。哪怕只是 open('huge.log').read(),Python 也会把整个文件塞进内存——几 GB 的日志或 CSV 一读就 MemoryError。这不是 Python 慢,是它默认不帮你分块。
真正该做的是:用生成器控制每次只加载一小段,让内存占用稳定在几十 MB 内。
- 别用
read()或readlines()一次性读完 - 优先用
for line in f:—— 这是内置的按行迭代,底层已缓冲,够快也够省 - 如果必须按字节块读(比如处理二进制、或行太长没换行符),才用
f.read(chunk_size)
chunk_size 设多大才合理?
不是越大越好,也不是越小越稳。设得太小(如 1 字节)会导致系统调用频繁,IO 效率暴跌;设得太大(如 100_000_000)又失去分块意义。
经验值是 8192(8KB)到 65536(64KB)之间。Linux 默认页大小是 4KB,多数磁盘/SSD 的块大小是 4–64KB,这个范围能对齐底层 IO 单元。
立即学习“Python免费学习笔记(深入)”;
- 文本文件按行处理?直接用
for line in f:,不用管chunk_size - 需要精确控制字节量(比如解析自定义二进制协议)?
chunk_size = 65536是安全起点 - 网络流或管道输入?
chunk_size建议 ≤4096,避免阻塞太久
写生成器函数时,yield 放哪儿容易出错?
常见错误是把 yield 放在 with open() 外面,或者在循环里 yield 了同一个可变对象(比如 list),结果所有 chunk 都指向最后一块数据。
关键点:每次 yield 的必须是独立副本,且文件句柄生命周期要可控。
- 必须在
with open(...)语句块内 yield,否则文件提前关闭 - 别写
data = []; data.extend(chunk); yield data—— 应该yield list(chunk)或yield chunk.copy() - 如果处理文本并想按行切分,别自己
split('\n'),用io.TextIOWrapper的迭代行为更可靠
示例(安全的字节块生成器):
def read_in_chunks(file_path, chunk_size=65536):
with open(file_path, 'rb') as f:
while True:
chunk = f.read(chunk_size)
if not chunk:
break
yield chunk # 注意:这里 yield 的是新 bytes 对象,每次都不一样用 pandas.read_csv() 读大 CSV,chunksize 和 iterator 怎么配?
chunksize 不是“一次读多少行”,而是“返回一个可迭代的 TextFileReader 对象”;不设 iterator=True,chunksize 就无效。
真正生效的组合只有一种:pd.read_csv(..., chunksize=N) → 返回一个迭代器,每次 next() 或 for 得到一个 DataFrame;设成 iterator=False(默认)就直接报错。
-
chunksize=1000表示每次 yield 一个含约 1000 行的DataFrame,不是 1000 字节 - 列类型推断只在第一块做,后续 chunk 若有空值或类型不一致,可能报
TypeError—— 建议显式传dtype - 如果文件带 BOM 或编码异常,
encoding='utf-8-sig'比'utf-8'更稳妥
分块读的本质不是“怎么读快”,是“不让内存被撑爆”。很多人卡在 chunk_size 数值上,其实更该先确认:你真需要手动分块?还是用 for line in f: 或 pd.read_csv(chunksize=...) 就够了。手动管理 chunk,意味着你要对换行、编码、边界截断全负责——这点最容易被忽略。










