Python批量处理文件需用pathlib精准定位文件,统一用utf-8-sig编码读写,加异常处理与tqdm进度条,并遵循预览→备份→覆盖三步安全流程。

Python脚本批量处理文件,核心是用 os、glob 或 pathlib 找到目标文件,再用循环逐个读取、修改、保存。关键不在“写得多”,而在“选得准、改得稳、错得少”。
一、定位要处理的文件(别漏掉、也别多抓)
推荐优先用 pathlib——简洁、跨平台、面向对象:
- Path("data/").glob("*.txt"):匹配当前目录下所有 .txt 文件(不递归)
- Path("data/").rglob("log_*.log"):递归查找所有子目录中符合命名规则的日志文件
- 加 list() 转成列表,方便查看或切片调试,比如 files = list(...)[:10] 先试前10个
二、统一读写逻辑(避免编码报错和路径拼错)
中文路径、UTF-8/BOM、换行符不一致是常见坑:
- 读文件统一用 encoding="utf-8-sig"(自动去BOM)
- 写文件时明确指定 newline="",防止 Windows 多出空行
- 用 file_path.with_name(f"new_{file_path.name}") 生成新文件名,不手拼字符串
三、加异常处理和进度提示(跑几百个文件时心里有底)
不要让一个坏文件中断全部流程:
立即学习“Python免费学习笔记(深入)”;
- 对每个文件用 try...except UnicodeDecodeError: 捕获编码问题,跳过或记日志
- 用 tqdm(files) 包裹循环(需先 pip install tqdm),实时显示进度条
- 简单记录:每处理完10个 print(f"✅ 已完成 {i+1}/{len(files)}")
四、安全第一:先预览、再备份、最后覆盖
批量操作不可逆,养成“三步习惯”:
- 首次运行时,把 .write_text(...) 换成 print(f"将写入:{new_path}"),只看不改
- 正式运行前,用 shutil.copy2(old, old.with_suffix(".bak")) 自动备份原文件(保留时间戳)
- 确认无误后才启用实际写入;也可改用新目录输出,如 output_dir / file_path.name
基本上就这些。不复杂但容易忽略细节——尤其是编码和路径。写完先拿 3 个测试文件跑通,再放开批量,稳。










