0

0

高效处理大量CSV文件:Pandas DataFrame分块与多线程优化

DDD

DDD

发布时间:2025-11-19 09:32:02

|

775人浏览过

|

来源于php中文网

原创

高效处理大量csv文件:pandas dataframe分块与多线程优化

本文针对循环读取并合并大量CSV文件至Pandas DataFrame时效率低下的问题,提供了基于数据收集和多线程的优化方案。通过将数据暂存至字典后一次性合并,以及利用`ThreadPoolExecutor`实现并行读取,显著提升数据处理速度,并附带代码示例和注意事项。

在数据分析和处理过程中,经常会遇到需要读取大量CSV文件并将它们合并成一个大的DataFrame的情况。如果文件数量巨大,传统的循环读取并逐个合并的方法效率会非常低下,尤其是在每次循环中使用pd.concat时,由于其会创建新的DataFrame对象,导致内存占用和计算时间显著增加。本文将介绍两种优化方案:一是避免在循环中使用pd.concat,而是先将数据收集起来,最后一次性合并;二是利用多线程并行读取文件,进一步提升效率。

优化方案一:数据收集与一次性合并

问题的关键在于避免在循环中频繁调用pd.concat。可以将每次读取的数据先存储在一个Python字典中,然后在循环结束后,使用pd.concat一次性将字典中的所有数据合并成一个DataFrame。

以下是优化后的代码示例:

import pathlib
import pandas as pd

# 假设 root_path 是CSV文件所在的根目录
root_path = pathlib.Path('root')

# 创建一个字典来存储读取的数据
data = {}

# 循环读取CSV文件
for count, (_, row) in enumerate(df.iterrows(), 1):
    folder_name = row['File ID'].strip()
    file_name = row['File Name'].strip()
    file_path = root_path / folder_name / file_name
    folder_file_id = f'{folder_name}_{file_name}'

    # 读取CSV文件,并设置列名
    file_data = pd.read_csv(file_path, header=None, sep='\t',
                            names=['Case', folder_file_id],
                            memory_map=True, low_memory=False)
    # 将读取的数据存储到字典中,键为folder_file_id
    data[folder_file_id] = file_data.set_index('Case').squeeze()
    print(count)

# 使用pd.concat一次性合并所有数据
merged_data = (pd.concat(data, names=['folder_file_id'])
                 .unstack('Case').reset_index())

代码解释:

  1. 使用pathlib.Path代替os.path,使代码更具可读性和跨平台性。
  2. 使用enumerate代替手动计数器,使代码更简洁。
  3. 使用字典data来存储每次读取的DataFrame。
  4. 在循环结束后,使用pd.concat一次性合并字典中的所有DataFrame。
  5. memory_map=True, low_memory=False 参数可以帮助处理大型CSV文件。
  6. .set_index('Case').squeeze() 将'Case'列设置为索引,并将DataFrame压缩成Series,以减少内存占用。
  7. .unstack('Case').reset_index() 将'Case'列取消堆叠,并将索引重置为默认的整数索引。

注意事项:

OmniAudio
OmniAudio

OmniAudio 是一款通过 AI 支持将网页、Word 文档、Gmail 内容、文本片段、视频音频文件都转换为音频播客,并生成可在常见 Podcast ap

下载
  • 确保所有CSV文件具有相同的列结构,以便合并。
  • 根据实际情况调整memory_map和low_memory参数。
  • 如果CSV文件非常大,可以考虑使用dask等库进行分块读取和并行处理。

优化方案二:多线程并行读取

如果读取CSV文件是瓶颈,可以考虑使用多线程并行读取。Python的concurrent.futures模块提供了ThreadPoolExecutor,可以方便地实现多线程。

以下是使用多线程的代码示例:

from concurrent.futures import ThreadPoolExecutor
import pathlib
import pandas as pd

# 假设 root_path 是CSV文件所在的根目录
root_path = pathlib.Path('root')

def read_csv(args):
    count, row = args  # expand arguments
    folder_name = row['File ID'].strip()
    file_name = row['File Name'].strip()
    file_path = root_path / folder_name / file_name
    folder_file_id = f'{folder_name}_{file_name}'

    file_data = pd.read_csv(file_path, header=None, sep='\t',
                            names=['Case', folder_file_id],
                            memory_map=True, low_memory=False)
    print(count)
    return folder_file_id, file_data.set_index('Case').squeeze()

with ThreadPoolExecutor(max_workers=2) as executor:
    batch = enumerate(df[['File ID', 'File Name']].to_dict('records'), 1)
    data = executor.map(read_csv, batch)

merged_data = (pd.concat(dict(data), names=['folder_file_id'])
                 .unstack('Case').reset_index())

代码解释:

  1. 定义一个read_csv函数,用于读取单个CSV文件。
  2. 使用ThreadPoolExecutor创建线程池,max_workers参数指定线程数量。
  3. 使用executor.map将read_csv函数应用到df的每一行,实现并行读取。
  4. df[['File ID', 'File Name']].to_dict('records') 将DataFrame转换为字典列表,方便传递给read_csv函数。
  5. enumerate 函数为每个文件添加一个计数器,用于打印进度。

注意事项:

  • max_workers参数需要根据CPU核心数和实际情况进行调整。
  • 多线程适用于I/O密集型任务,如果CPU计算是瓶颈,多线程可能无法带来显著的性能提升。
  • 注意线程安全问题,避免多个线程同时访问共享资源。

总结

通过避免在循环中使用pd.concat,而是先将数据收集起来,最后一次性合并,可以显著提升处理大量CSV文件的效率。如果读取CSV文件是瓶颈,可以考虑使用多线程并行读取,进一步提升效率。在实际应用中,需要根据具体情况选择合适的优化方案。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
Python 时间序列分析与预测
Python 时间序列分析与预测

本专题专注讲解 Python 在时间序列数据处理与预测建模中的实战技巧,涵盖时间索引处理、周期性与趋势分解、平稳性检测、ARIMA/SARIMA 模型构建、预测误差评估,以及基于实际业务场景的时间序列项目实操,帮助学习者掌握从数据预处理到模型预测的完整时序分析能力。

82

2025.12.04

Python 数据清洗与预处理实战
Python 数据清洗与预处理实战

本专题系统讲解 Python 在数据清洗与预处理中的核心技术,包括使用 Pandas 进行缺失值处理、异常值检测、数据格式化、特征工程与数据转换,结合 NumPy 高效处理大规模数据。通过实战案例,帮助学习者掌握 如何处理混乱、不完整数据,为后续数据分析与机器学习模型训练打下坚实基础。

34

2026.01.31

堆和栈的区别
堆和栈的区别

堆和栈的区别:1、内存分配方式不同;2、大小不同;3、数据访问方式不同;4、数据的生命周期。本专题为大家提供堆和栈的区别的相关的文章、下载、课程内容,供大家免费下载体验。

448

2023.07.18

堆和栈区别
堆和栈区别

堆(Heap)和栈(Stack)是计算机中两种常见的内存分配机制。它们在内存管理的方式、分配方式以及使用场景上有很大的区别。本文将详细介绍堆和栈的特点、区别以及各自的使用场景。php中文网给大家带来了相关的教程以及文章欢迎大家前来学习阅读。

606

2023.08.10

线程和进程的区别
线程和进程的区别

线程和进程的区别:线程是进程的一部分,用于实现并发和并行操作,而线程共享进程的资源,通信更方便快捷,切换开销较小。本专题为大家提供线程和进程区别相关的各种文章、以及下载和课程。

766

2023.08.10

Python 多线程与异步编程实战
Python 多线程与异步编程实战

本专题系统讲解 Python 多线程与异步编程的核心概念与实战技巧,包括 threading 模块基础、线程同步机制、GIL 原理、asyncio 异步任务管理、协程与事件循环、任务调度与异常处理。通过实战示例,帮助学习者掌握 如何构建高性能、多任务并发的 Python 应用。

377

2025.12.24

java多线程相关教程合集
java多线程相关教程合集

本专题整合了java多线程相关教程,阅读专题下面的文章了解更多详细内容。

33

2026.01.21

C++多线程相关合集
C++多线程相关合集

本专题整合了C++多线程相关教程,阅读专题下面的的文章了解更多详细内容。

31

2026.01.21

TypeScript类型系统进阶与大型前端项目实践
TypeScript类型系统进阶与大型前端项目实践

本专题围绕 TypeScript 在大型前端项目中的应用展开,深入讲解类型系统设计与工程化开发方法。内容包括泛型与高级类型、类型推断机制、声明文件编写、模块化结构设计以及代码规范管理。通过真实项目案例分析,帮助开发者构建类型安全、结构清晰、易维护的前端工程体系,提高团队协作效率与代码质量。

49

2026.03.13

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.5万人学习

Django 教程
Django 教程

共28课时 | 5万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.9万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号