0

0

Pandas DataFrame性能优化:高效处理“高度碎片化”警告与多列创建

霞舞

霞舞

发布时间:2025-11-29 12:10:01

|

965人浏览过

|

来源于php中文网

原创

Pandas DataFrame性能优化:高效处理“高度碎片化”警告与多列创建

本文旨在解决pandas dataframe在创建大量新列时出现的“高度碎片化”`performancewarning`。该警告通常源于迭代式地向dataframe添加列,导致性能下降。我们将详细探讨其产生原因,并提供一个使用`pd.concat`和`df.join`的优化方案,以实现高效、批量地创建新列,从而避免性能问题,提升数据处理效率。

理解PerformanceWarning:DataFrame碎片化问题

在使用Pandas处理大量数据时,如果频繁地以迭代方式向一个大型DataFrame添加新列,可能会遇到PerformanceWarning: DataFrame is highly fragmented的警告。这个警告提示DataFrame已经高度碎片化,通常是由于多次调用内部的frame.insert操作造成的,这会导致显著的性能开销。

当通过df['new_column'] = ...这种语法逐个创建新列时,Pandas在后台可能需要重新分配内存并复制数据,尤其是在DataFrame的内存布局发生变化时。对于包含百万行数据且需要创建数百甚至上千个新列的场景,这种逐个添加的方式会极大地降低效率,并可能导致内存使用率升高。

低效的列创建方式及其问题

考虑一个常见场景:从一个包含长字符串的列中,根据不同的切片规则解析出多个子字符串,并将它们作为新的列添加到DataFrame中。以下是一个典型的低效实现示例:

import pandas as pd
import numpy as np
import string

# 模拟一个大型DataFrame
np.random.seed(0)
df = pd.DataFrame({
    "long_string": ["".join(np.random.choice(
        [*string.printable[:62]], size=5000)) for _ in range(10000)]
})

def parse_long_string_inefficient(df):
    # 假设需要创建972个新列
    for i in range(1, 973):
        start = (i-1) * 2
        end = i * 2 if i < 972 else None # 最后一个切片可能到末尾
        col_name = f'a{i:03d}'
        df[col_name] = df['long_string'].str[start:end]
    return df

# 调用此函数时,可能会收到PerformanceWarning
# out_inefficient = parse_long_string_inefficient(df.copy())

上述代码通过循环逐个创建并赋值新列。当循环次数(即新列数量)非常大时,每次df[col_name] = ...的操作都可能触发DataFrame的内部重构,导致内存碎片化,进而引发PerformanceWarning并严重影响执行性能。Pandas建议使用pd.concat(axis=1)等方法一次性合并所有新列,以避免这种碎片化。

高效解决方案:利用pd.concat和df.join

解决DataFrame碎片化问题的核心思想是:避免迭代地修改原始DataFrame,而是将所有新列一次性创建为一个独立的DataFrame,然后通过高效的合并操作(如pd.join或pd.concat)将其与原始DataFrame结合。

MusicAI
MusicAI

AI音乐生成工具

下载

以下是利用pd.concat和df.join实现高效多列创建的步骤和示例:

  1. 定义列切片规则: 将所有需要创建的列名及其对应的字符串切片范围存储在一个映射结构中(例如字典)。
  2. 批量创建新列: 使用字典推导式(Dictionary Comprehension)结合df['long_string'].str.slice方法,一次性生成所有新列的数据系列(Series)。
  3. 使用pd.concat构建新DataFrame: 将这些新生成的Series作为字典的值,键为列名,然后传递给pd.concat函数,并设置axis=1,将其合并成一个包含所有新列的DataFrame。
  4. 使用df.join合并: 将这个包含所有新列的DataFrame通过df.join()方法高效地与原始DataFrame合并。join操作通常比concat更适合基于索引的合并,且在处理少量DataFrame合并时效率更高。

完整示例代码

import pandas as pd
import numpy as np
import string
import time # 用于性能对比

# 1. 模拟一个大型DataFrame
np.random.seed(0)
num_rows = 10000
long_string_length = 5000
df = pd.DataFrame({
    "long_string": ["".join(np.random.choice(
        [*string.printable[:62]], size=long_string_length)) for _ in range(num_rows)]
})

# 2. 定义列切片规则
# 假设我们从长字符串中每2个字符切片为一个新列,直到字符串末尾
# 示例中创建了972个列,前971列每列2个字符,最后一列是剩余字符
slices_mapper = {}
current_start = 0
for i in range(1, 973): # 假设需要创建972列
    col_name = f'a{i:03d}'
    if i < 972:
        end = current_start + 2
        slices_mapper[col_name] = (current_start, end)
        current_start = end
    else: # 最后一列,切片到字符串末尾
        slices_mapper[col_name] = (current_start, None)

print(f"将创建 {len(slices_mapper)} 个新列。")

# 3. 高效解析函数
def parse_long_string_efficient(df_input, mapper):
    """
    使用pd.concat和df.join高效解析长字符串并创建多列。

    Args:
        df_input (pd.DataFrame): 包含'long_string'列的原始DataFrame。
        mapper (dict): 字典,键为新列名,值为(start, end)切片元组。

    Returns:
        pd.DataFrame: 包含原始列和所有新创建列的DataFrame。
    """
    # 使用字典推导式和pd.concat一次性创建所有新列
    new_cols_df = pd.concat(
        {
            col_name: df_input["long_string"].str[start:end]
            for col_name, (start, end) in mapper.items()
        },
        axis=1 # 沿列方向合并
    )

    # 将新列DataFrame与原始DataFrame合并
    return df_input.join(new_cols_df)

# 4. 执行并验证
start_time = time.time()
result_df = parse_long_string_efficient(df.copy(), slices_mapper)
end_time = time.time()

print(f"\n高效方法执行时间: {end_time - start_time:.4f} 秒")
print("\n结果DataFrame头部:")
print(result_df.head())
print("\n结果DataFrame信息:")
print(result_df.info())
print(f"\n结果DataFrame形状: {result_df.shape}")

# 验证某一列的数据
# print("\n'a001'列前5行:", result_df['a001'].head().tolist())
# print("'a972'列前5行:", result_df['a972'].head().tolist())

运行上述代码,您会发现不再出现PerformanceWarning,且在大规模数据和多列创建场景下,性能得到了显著提升。

最佳实践与注意事项

  1. 批量操作优先: 尽可能使用Pandas提供的向量化操作和批量处理函数(如apply配合返回Series或DataFrame、pd.concat、df.assign),避免使用Python原生的循环逐行或逐列操作。
  2. 理解df.assign: 对于创建少量新列,df.assign()也是一个非常方便且高效的方法,它允许您在一个方法调用中创建多个新列,并且会返回一个新的DataFrame。
    # 示例 df.assign
    # df_new = df.assign(
    #     col1=df['A'] + df['B'],
    #     col2=df['C'].apply(lambda x: x * 2)
    # )

    然而,当新列的创建逻辑非常复杂,或者新列数量非常庞大时,pd.concat的灵活性和性能优势可能更突出。

  3. 内存管理: 即使使用了高效方法,创建大量新列仍然会增加DataFrame的内存占用。在处理极大规模数据时,需要注意系统的内存限制。
  4. 数据类型优化: 如果新创建的列可以指定更小或更精确的数据类型(例如,整数列可以使用int8而不是默认的int64),在创建时显式指定可以进一步节省内存并可能提高性能。
  5. df.copy()的作用: 警告中提到newframe = frame.copy()可以获取一个“去碎片化”的DataFrame。这意味着如果你已经有了一个高度碎片化的DataFrame,并且需要进行后续操作,copy()操作可以强制Pandas重新组织内存,从而改善后续操作的性能。但这并不能解决创建列时产生碎片化的问题,而是在碎片化发生后的一种补救措施。对于创建新列的场景,最好的方法是避免碎片化的发生,即使用pd.concat等批量创建方式。

总结

PerformanceWarning: DataFrame is highly fragmented是Pandas在检测到潜在性能问题时发出的重要提示。当需要从现有列中解析并创建大量新列时,应避免迭代式地使用df['new_col'] = ...语法。通过将所有新列的创建逻辑封装在一个字典推导式中,然后利用pd.concat(axis=1)一次性构建一个包含所有新列的DataFrame,最后使用df.join()将其与原始DataFrame合并,可以有效地避免DataFrame碎片化,显著提升数据处理的效率和性能。掌握这种批量操作的技巧,对于优化大型数据集的Pandas处理流程至关重要。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
Python 时间序列分析与预测
Python 时间序列分析与预测

本专题专注讲解 Python 在时间序列数据处理与预测建模中的实战技巧,涵盖时间索引处理、周期性与趋势分解、平稳性检测、ARIMA/SARIMA 模型构建、预测误差评估,以及基于实际业务场景的时间序列项目实操,帮助学习者掌握从数据预处理到模型预测的完整时序分析能力。

82

2025.12.04

Python 数据清洗与预处理实战
Python 数据清洗与预处理实战

本专题系统讲解 Python 在数据清洗与预处理中的核心技术,包括使用 Pandas 进行缺失值处理、异常值检测、数据格式化、特征工程与数据转换,结合 NumPy 高效处理大规模数据。通过实战案例,帮助学习者掌握 如何处理混乱、不完整数据,为后续数据分析与机器学习模型训练打下坚实基础。

34

2026.01.31

数据类型有哪几种
数据类型有哪几种

数据类型有整型、浮点型、字符型、字符串型、布尔型、数组、结构体和枚举等。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

338

2023.10.31

php数据类型
php数据类型

本专题整合了php数据类型相关内容,阅读专题下面的文章了解更多详细内容。

225

2025.10.31

c语言 数据类型
c语言 数据类型

本专题整合了c语言数据类型相关内容,阅读专题下面的文章了解更多详细内容。

138

2026.02.12

js 字符串转数组
js 字符串转数组

js字符串转数组的方法:1、使用“split()”方法;2、使用“Array.from()”方法;3、使用for循环遍历;4、使用“Array.split()”方法。本专题为大家提供js字符串转数组的相关的文章、下载、课程内容,供大家免费下载体验。

761

2023.08.03

js截取字符串的方法
js截取字符串的方法

js截取字符串的方法有substring()方法、substr()方法、slice()方法、split()方法和slice()方法。本专题为大家提供字符串相关的文章、下载、课程内容,供大家免费下载体验。

221

2023.09.04

java基础知识汇总
java基础知识汇总

java基础知识有Java的历史和特点、Java的开发环境、Java的基本数据类型、变量和常量、运算符和表达式、控制语句、数组和字符串等等知识点。想要知道更多关于java基础知识的朋友,请阅读本专题下面的的有关文章,欢迎大家来php中文网学习。

1570

2023.10.24

TypeScript类型系统进阶与大型前端项目实践
TypeScript类型系统进阶与大型前端项目实践

本专题围绕 TypeScript 在大型前端项目中的应用展开,深入讲解类型系统设计与工程化开发方法。内容包括泛型与高级类型、类型推断机制、声明文件编写、模块化结构设计以及代码规范管理。通过真实项目案例分析,帮助开发者构建类型安全、结构清晰、易维护的前端工程体系,提高团队协作效率与代码质量。

49

2026.03.13

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.5万人学习

Django 教程
Django 教程

共28课时 | 5万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.9万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号