Python处理CSV应按需选工具:小文件用csv模块(需显式指定encoding='utf-8-sig'和newline=''防乱码与空行),大文件或分析用pandas(传dtype、chunksize优化性能),混合使用csv预处理+DataFrame构造更高效。

Python处理CSV文件,核心在于用对工具、避开常见坑。pandas虽强,但小文件或纯文本操作时,csv模块更轻量、内存更友好;大文件或需分析时,pandas的向量化操作和自动类型推断才真正提效。
用csv模块读取:控制细节,避免编码/换行错误
默认open()可能因系统默认编码(如Windows的gbk)导致中文乱码;csv.reader也不自动处理引号内换行符。稳妥做法是显式指定encoding和newline参数:
- 读取时用open(file, encoding='utf-8-sig', newline='')——utf-8-sig自动跳过BOM头,newline=''防止csv模块误判换行符
- 写入同理,必须加newline='',否则Windows下会多出空行
- 若CSV含复杂字段(如含逗号、换行、引号),确保dialect参数一致,或直接用DictReader/DictWriter按列名操作,更直观
用pandas读写:提速+自动处理,但注意内存与类型
read_csv()默认低效:它逐行扫描推断数据类型,大文件很慢。关键优化点:
- 明确传入dtype参数(如{'user_id': 'int32', 'name': 'string'}),跳过类型猜测,节省50%以上时间
- 用chunksize分块读取处理,适合内存受限场景,例如for chunk in pd.read_csv('log.csv', chunksize=10000): process(chunk)
- 写入时设index=False避免多余索引列;如需保留时间精度,用date_format='%Y-%m-%d %H:%M:%S'
混合使用场景:csv模块预处理 + pandas主分析
原始CSV常含脏数据(空行、注释行、不规范表头)。先用csv模块快速清洗,再交由pandas分析:
Delphi 7应用编程150例 CHM全书内容下载,全书主要通过150个实例,全面、深入地介绍了用Delphi 7开发应用程序的常用方法和技巧,主要讲解了用Delphi 7进行界面效果处理、图像处理、图形与多媒体开发、系统功能控制、文件处理、网络与数据库开发,以及组件应用等内容。这些实例简单实用、典型性强、功能突出,很多实例使用的技术稍加扩展可以解决同类问题。使用本书最好的方法是通过学习掌握实例中的技术或技巧,然后使用这些技术尝试实现更复杂的功能并应用到更多方面。本书主要针对具有一定Delphi基础知识
立即学习“Python免费学习笔记(深入)”;
- 用csv.reader逐行判断,跳过以#开头的注释或空白行,提取有效数据行
- 把清洗后的数据暂存为列表,用pd.DataFrame(rows, columns=header)一次性构造DataFrame,比边读边append快得多
- 对于超大日志类CSV,可先用shell命令(如grep、awk)预过滤,再进Python,减少IO压力
写入性能对比:to_csv vs csv.writer
单纯写入结构化数据,原生csv.writer比pandas.to_csv快2–5倍,尤其在百万行级:
- 用csv.writer(f).writerows(data_list)批量写入,比循环调用to_csv()高效
- 若需格式化(如数字保留两位小数、日期转字符串),提前在Python中处理好再写,别依赖to_csv的formatters参数——它会拖慢速度
- 写入前确认文件路径目录存在,避免报错;可配合pathlib.Path(file).parent.mkdir(parents=True, exist_ok=True)自动建目录









