0

0

Pandas中如何实现数据的分类汇总?

星夢妙者

星夢妙者

发布时间:2025-07-23 08:33:01

|

1054人浏览过

|

来源于php中文网

原创

pandas中实现数据分类汇总的核心工具是groupby()方法。1. 使用groupby()按一个或多个列分组数据;2. 通过.agg()方法定义聚合逻辑,如sum()、mean()、count()等;3. 可使用reset_index()或多级索引参数as_index=false来处理汇总后的多级索引结构;4. 面对复杂需求时,可结合lambda函数实现条件聚合,或通过自定义函数配合agg()或apply()完成更灵活的计算。这些工具和方法构成了pandas强大的分类汇总功能,能够满足多样化的数据分析需求。

Pandas中如何实现数据的分类汇总?

Pandas里实现数据分类汇总,核心工具就是groupby()方法。它能让你根据一个或多个列的值把数据巧妙地分成若干组,然后对每一组独立地执行各种聚合操作,比如求和、计算平均值、计数等等。这就像是把一大堆散乱的乐高积木,按照颜色、形状分好类,再数数每种颜色有多少块,或者看看每种形状的积木总共有多高,非常实用。

Pandas中如何实现数据的分类汇总?

Pandas的groupby()方法是实现数据分类汇总的基石。通常,我们会先用groupby()指定分组的键,然后紧接着使用.agg()方法来定义具体的聚合逻辑。

import pandas as pd
import numpy as np

# 假设我们有一些销售数据
data = {
    'Region': ['East', 'West', 'East', 'North', 'West', 'East', 'North', 'West'],
    'Product': ['A', 'B', 'A', 'C', 'B', 'A', 'C', 'D'],
    'Sales': [100, 150, 120, 80, 200, 110, 90, 180],
    'Quantity': [10, 15, 12, 8, 20, 11, 9, 18]
}
df = pd.DataFrame(data)

# 简单的按区域汇总销售额
regional_sales = df.groupby('Region')['Sales'].sum()
print("按区域汇总销售额:\n", regional_sales)

# 也可以同时按多个维度分组,并进行多种聚合
# 比如,按区域和产品类型,计算总销售额和平均销量
multi_dim_summary = df.groupby(['Region', 'Product']).agg(
    TotalSales=('Sales', 'sum'),
    AverageQuantity=('Quantity', 'mean')
)
print("\n按区域和产品汇总销售额与平均销量:\n", multi_dim_summary)

# 如果聚合逻辑更复杂,例如需要自定义函数,可以使用 .apply()
# 比如,我们想计算每个区域内,销售额超过100的产品数量
def count_high_sales_products(group):
    return (group['Sales'] > 100).sum()

high_sales_count = df.groupby('Region').apply(count_high_sales_products)
print("\n每个区域销售额超过100的产品数量:\n", high_sales_count)

聚合函数怎么选,才能切中要害?

选择合适的聚合函数,其实就是看你最终想从数据里“提炼”出什么信息。Pandas提供了非常丰富的内置聚合函数,覆盖了我们日常分析的绝大部分场景。

Pandas中如何实现数据的分类汇总?

最常见的有:

  • sum():计算总和,比如总销售额、总库存。
  • mean():计算平均值,比如平均客单价、平均响应时间。
  • count():计算非空值的数量,看某个类别有多少条记录。
  • size():计算组的大小,包括NaN值,这能告诉你每个分组有多少行。
  • min() / max():找出最小值或最大值,比如最低价、最高气温。
  • median():中位数,对异常值不那么敏感的中心趋势度量。
  • std() / var():标准差和方差,衡量数据的波动性。

当你需要同时进行多种聚合时,agg()方法就显得格外强大。你可以给它传入一个字典,键是新的列名,值是一个元组,元组里包含你想要聚合的列和聚合函数。这样输出的结果就非常清晰,避免了多层索引的麻烦。

Pandas中如何实现数据的分类汇总?
# 还是用上面的df
# 假设我们想看每个区域的总销售额、平均销量和产品种类数量
comprehensive_summary = df.groupby('Region').agg(
    TotalSales=('Sales', 'sum'),
    AverageQuantity=('Quantity', 'mean'),
    ProductCount=('Product', 'nunique') # nunique计算唯一值的数量
)
print(comprehensive_summary)

这里nunique就非常巧妙,它能帮你快速统计每个区域有多少种不同的产品。选择聚合函数,关键在于你的分析目标:想看总量就sum,想看分布就meanmedian,想看覆盖面就countsize。没有绝对的最佳选择,只有最适合你当前问题的那一个。

分类汇总后的多级索引,是福是祸?又该如何驯服它?

groupby()操作之后,一个很常见的情况就是结果DataFrame会带有多级索引(MultiIndex)。这在某些分析场景下,比如你需要进一步筛选或展示层级关系时,确实非常方便。它能清晰地展示数据是如何被层层分组的。

然而,在另一些情况下,特别是当你需要将汇总结果用于后续的合并、写入文件,或者直接作为扁平化表格展示时,多级索引可能会显得有点“碍事”。它让列的访问变得复杂,也可能不符合某些工具或数据库的导入要求。

驯服它的方法主要有两种:

PHP5 和 MySQL 圣经
PHP5 和 MySQL 圣经

本书是全面讲述PHP与MySQL的经典之作,书中不但全面介绍了两种技术的核心特性,还讲解了如何高效地结合这两种技术构建健壮的数据驱动的应用程序。本书涵盖了两种技术新版本中出现的最新特性,书中大量实际的示例和深入的分析均来自于作者在这方面多年的专业经验,可用于解决开发者在实际中所面临的各种挑战。

下载
  1. reset_index():这是最直接、最常用的方法。它会把所有索引层级都转换为普通的列,从而得到一个扁平化的DataFrame。你可以指定drop=True来丢弃旧的索引,或者不指定让它们变成新列。

    # 承接上文的 multi_dim_summary
    print("原始多级索引汇总:\n", multi_dim_summary)
    
    # 使用 reset_index() 将索引转换为列
    flattened_summary = multi_dim_summary.reset_index()
    print("\n扁平化后的汇总:\n", flattened_summary)
  2. as_index=False:在groupby()的时候就直接告诉Pandas,别把分组键作为索引。这样,它会把分组键保留为普通列,直接输出一个扁平化的结果,省去了后续reset_index()的步骤。

    # 再次按区域和产品类型分组,但这次不使用索引
    no_index_summary = df.groupby(['Region', 'Product'], as_index=False).agg(
        TotalSales=('Sales', 'sum'),
        AverageQuantity=('Quantity', 'mean')
    )
    print("\n直接生成扁平化汇总(as_index=False):\n", no_index_summary)

选择哪种方式取决于你的习惯和具体需求。如果我一开始就知道我最终需要一个扁平的表格,我可能会倾向于直接用as_index=False。但如果我需要逐步探索数据,或者多级索引能更好地表达我的数据结构,那我就先让它保持多级索引,等到需要扁平化时再reset_index()。这就像是,你知道最终要吃面条,可以直接煮面,也可以先煮一大锅高汤,再捞出来放面。各有各的便利。

面对更复杂的聚合需求,例如条件聚合或自定义函数,Pandas还能怎么玩?

有时候,简单的sum()mean()满足不了我们刁钻的需求。比如,我只想统计某个特定条件下才满足的销售额,或者需要一个完全定制的计算逻辑。这时候,Pandas依然能灵活应对。

  1. 条件聚合(Conditional Aggregation): 你可以在agg()内部结合布尔索引来实现条件聚合。这通常需要你传入一个具名聚合(named aggregation),然后在一个lambda函数中嵌入条件判断。

    # 假设我们想计算每个区域中,只有销售额超过100的订单的总销售额
    conditional_sales = df.groupby('Region').agg(
        HighValueSales=('Sales', lambda x: x[x > 100].sum()),
        # 还可以计算高价值订单的数量
        HighValueOrdersCount=('Sales', lambda x: (x > 100).sum())
    )
    print("\n每个区域高价值订单的汇总:\n", conditional_sales)

    这里,lambda x: x[x > 100].sum()就是精髓。x代表分组后的Series(比如某个Region下的所有Sales值),我们对这个Series进行布尔索引,只选择大于100的值,然后再求和。这种方式非常简洁高效。

  2. 自定义函数(Custom Functions): 当你的聚合逻辑非常复杂,无法用简单的lambda表达式表达时,你可以定义一个普通的Python函数,然后将其传递给agg()apply()

    • 传递给agg():如果你的函数接受一个Series并返回一个标量值,那就可以直接用在agg()里。

      # 比如,我们想计算每个区域销售额的中位数与平均值的差值
      def median_mean_diff(series):
          return series.median() - series.mean()
      
      diff_summary = df.groupby('Region').agg(
          SalesDiff=('Sales', median_mean_diff)
      )
      print("\n每个区域销售额中位数与平均值的差值:\n", diff_summary)
    • 使用apply()apply()groupby()操作中最灵活的。它会将每个分组作为一个完整的DataFrame(或Series)传递给你的函数。这意味着你可以在函数内部进行任何Pandas操作,甚至更复杂的逻辑,只要最终返回一个DataFrame、Series或标量。

      # 假设我们想找出每个区域销售额最高的两个产品及其销售额
      def top_n_sales(group_df, n=2):
          return group_df.nlargest(n, 'Sales')[['Product', 'Sales']]
      
      top_products_by_region = df.groupby('Region').apply(top_n_sales, n=2)
      print("\n每个区域销售额最高的两个产品:\n", top_products_by_region)

      apply()的强大之处在于,它给你的函数提供的是整个分组的上下文,而不仅仅是某一列。这使得你可以执行跨列的计算、复杂的过滤或排序,甚至返回一个结构完全不同的结果。不过,apply()通常比内置聚合函数或agg()的性能要差一些,因为它在Python循环中执行。所以,能用内置函数或agg()解决的,尽量优先考虑它们。但当逻辑实在太复杂时,apply()就是你的救星。

总之,Pandas的分类汇总功能,从简单的sum()到复杂的apply(),提供了一整套工具来帮助你深入挖掘数据。理解并灵活运用它们,数据分析的效率和深度都能得到显著提升。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
Python 时间序列分析与预测
Python 时间序列分析与预测

本专题专注讲解 Python 在时间序列数据处理与预测建模中的实战技巧,涵盖时间索引处理、周期性与趋势分解、平稳性检测、ARIMA/SARIMA 模型构建、预测误差评估,以及基于实际业务场景的时间序列项目实操,帮助学习者掌握从数据预处理到模型预测的完整时序分析能力。

78

2025.12.04

Python 数据清洗与预处理实战
Python 数据清洗与预处理实战

本专题系统讲解 Python 在数据清洗与预处理中的核心技术,包括使用 Pandas 进行缺失值处理、异常值检测、数据格式化、特征工程与数据转换,结合 NumPy 高效处理大规模数据。通过实战案例,帮助学习者掌握 如何处理混乱、不完整数据,为后续数据分析与机器学习模型训练打下坚实基础。

12

2026.01.31

counta和count的区别
counta和count的区别

Count函数用于计算指定范围内数字的个数,而CountA函数用于计算指定范围内非空单元格的个数。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

203

2023.11.20

lambda表达式
lambda表达式

Lambda表达式是一种匿名函数的简洁表示方式,它可以在需要函数作为参数的地方使用,并提供了一种更简洁、更灵活的编码方式,其语法为“lambda 参数列表: 表达式”,参数列表是函数的参数,可以包含一个或多个参数,用逗号分隔,表达式是函数的执行体,用于定义函数的具体操作。本专题为大家提供lambda表达式相关的文章、下载、课程内容,供大家免费下载体验。

214

2023.09.15

python lambda函数
python lambda函数

本专题整合了python lambda函数用法详解,阅读专题下面的文章了解更多详细内容。

192

2025.11.08

Python lambda详解
Python lambda详解

本专题整合了Python lambda函数相关教程,阅读下面的文章了解更多详细内容。

61

2026.01.05

treenode的用法
treenode的用法

​在计算机编程领域,TreeNode是一种常见的数据结构,通常用于构建树形结构。在不同的编程语言中,TreeNode可能有不同的实现方式和用法,通常用于表示树的节点信息。更多关于treenode相关问题详情请看本专题下面的文章。php中文网欢迎大家前来学习。

548

2023.12.01

C++ 高效算法与数据结构
C++ 高效算法与数据结构

本专题讲解 C++ 中常用算法与数据结构的实现与优化,涵盖排序算法(快速排序、归并排序)、查找算法、图算法、动态规划、贪心算法等,并结合实际案例分析如何选择最优算法来提高程序效率。通过深入理解数据结构(链表、树、堆、哈希表等),帮助开发者提升 在复杂应用中的算法设计与性能优化能力。

27

2025.12.22

JavaScript浏览器渲染机制与前端性能优化实践
JavaScript浏览器渲染机制与前端性能优化实践

本专题围绕 JavaScript 在浏览器中的执行与渲染机制展开,系统讲解 DOM 构建、CSSOM 解析、重排与重绘原理,以及关键渲染路径优化方法。内容涵盖事件循环机制、异步任务调度、资源加载优化、代码拆分与懒加载等性能优化策略。通过真实前端项目案例,帮助开发者理解浏览器底层工作原理,并掌握提升网页加载速度与交互体验的实用技巧。

1

2026.03.06

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.5万人学习

Django 教程
Django 教程

共28课时 | 4.8万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.8万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号