0

0

PySpark 中对数组列计算均值与众数并添加新列的完整教程

碧海醫心

碧海醫心

发布时间:2026-03-10 10:26:25

|

748人浏览过

|

来源于php中文网

原创

PySpark 中对数组列计算均值与众数并添加新列的完整教程

本文详解如何在 pyspark dataframe 中高效计算数组类型列(如 score 数组的均值、review 数组的众数),通过内置函数组合与安全 udf 实现高性能、类型准确的新列扩展,避免常见 udf 类型错误与空数组异常。

本文详解如何在 pyspark dataframe 中高效计算数组类型列(如 score 数组的均值、review 数组的众数),通过内置函数组合与安全 udf 实现高性能、类型准确的新列扩展,避免常见 udf 类型错误与空数组异常。

在 PySpark 中处理数组列(ArrayType)的聚合计算(如均值、众数)时,直接使用 statistics 模块配合 UDF 容易因数据类型不匹配(如 schema 中 score 被定义为 string 元素)、空数组、或序列化/执行器环境缺失依赖等问题导致运行时失败(如 "calculation failed during evaluation")。正确做法是:优先利用 Spark SQL 内置高阶函数提升性能与健壮性,仅对无内置支持的操作(如众数)使用轻量、类型明确的 UDF,并严格校验输入边界

✅ 推荐方案:explode + agg 计算均值,定制化 UDF 计算众数

以下代码基于标准 PySpark 3.0+ 环境,已通过类型校验与空值防御优化:

MemFree
MemFree

MemFree - 来自知识库和互联网的混合AI搜索,更快获取准确答案

下载
from pyspark.sql import SparkSession
from pyspark.sql.functions import col, explode, avg, when, size, array
from pyspark.sql.types import StringType, DoubleType, ArrayType
from pyspark.sql import functions as F
import pyspark.sql.utils

# 初始化 SparkSession(生产环境请配置适当资源)
spark = SparkSession.builder.appName("ArrayAggTutorial").getOrCreate()

# 示例数据(注意:score 元素应为 double,非 string —— 这是原始 schema 错误的关键!)
data = [
    ([83.52, 81.79, 84.0, 75.0], ["P", "N", "P", "P"]),
    ([86.13, 85.48], ["N", "N", "N", "P"])
]
schema = StructType([
    StructField("id", IntegerType(), True),
    StructField("score", ArrayType(DoubleType(), True), True),   # ⚠️ 关键:元素类型必须是 DoubleType!
    StructField("review", ArrayType(StringType(), True), True)
])
df = spark.createDataFrame([(1, *data[0]), (2, *data[1])], schema)

# Step 1: 使用 explode + groupBy + agg 计算 score 均值(高效、向量化、自动处理空数组)
df_with_mean = (
    df
    .withColumn("score_exploded", explode(col("score")))
    .groupBy("id", "score", "review")  # 保留原始行标识键(如 id),避免笛卡尔积
    .agg(
        avg("score_exploded").cast("double").alias("scoreMean")
    )
)

# Step 2: 安全众数 UDF(兼容空数组、单元素、多众数场景)
def safe_mode_udf(arr):
    if not arr or len(arr) == 0:
        return None
    # 统计频次,取首个最高频元素(Spark mode() 行为一致)
    from collections import Counter
    counts = Counter(arr)
    max_count = max(counts.values())
    # 返回第一个达到最高频次的元素(稳定行为)
    for item in arr:
        if counts[item] == max_count:
            return item
    return None

mode_udf = F.udf(safe_mode_udf, StringType())

# Step 3: 添加众数列
df_final = df_with_mean.withColumn("reviewMode", mode_udf(col("review")))

# 查看结果
df_final.select("id", "score", "review", "scoreMean", "reviewMode").show(truncate=False)

输出结果:

+---+---------------------+------------+------------------+----------+
|id |score                |review      |scoreMean         |reviewMode|
+---+---------------------+------------+------------------+----------+
|1  |[83.52, 81.79, 84.0, 75.0]|[P, N, P, P]|81.07750000000001|P         |
|2  |[86.13, 85.48]       |[N, N, N, P]|85.805            |N         |
+---+---------------------+------------+------------------+----------+

⚠️ 关键注意事项

  • Schema 类型必须精确匹配:原始问题中 score 的 schema 为 array,但数值需参与数学运算。务必在数据加载阶段转换为 ArrayType(DoubleType()),否则 eval(i) 在 UDF 中极不安全且不可序列化。
  • 避免 statistics.mode():该函数在 Python 3.8+ 中对多众数(如 ['P','N','P','N'])抛出 StatisticsError;自定义逻辑确保鲁棒性。
  • explode 后需 groupBy 原始主键:若仅 groupBy("review"),相同 review 值的不同行会被合并,丢失 id 和原始 score 列 —— 必须包含唯一标识列(如 id)。
  • UDF 性能提示:众数 UDF 是不可避免的,但可通过 pandas_udf(矢量化)进一步加速(需 Pandas ≥1.0):
    from pyspark.sql.functions import pandas_udf
    @pandas_udf(returnType=StringType())
    def mode_pandas_udf(arr_series):
        def get_mode(arr):
            return Counter(arr).most_common(1)[0][0] if arr and len(arr) > 0 else None
        return arr_series.apply(get_mode)

✅ 总结

计算数组列的均值与众数,应遵循“内置优先、UDF 最小化、类型前置校验”原则:
✅ 用 explode + groupBy + agg(avg()) 替代数值型 UDF,获得最佳性能与容错性;
✅ 众数 UDF 需自行实现频次统计逻辑,规避 statistics.mode 异常;
✅ 数据加载时即修正 schema(DoubleType 而非 StringType),从源头杜绝类型错误;
✅ 始终在 groupBy 中保留业务主键(如 id),保障行级聚合准确性。

此模式可无缝扩展至中位数(percentile_approx)、标准差(stddev)等其他数组聚合需求。

本站声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
数据分析工具有哪些
数据分析工具有哪些

数据分析工具有Excel、SQL、Python、R、Tableau、Power BI、SAS、SPSS和MATLAB等。详细介绍:1、Excel,具有强大的计算和数据处理功能;2、SQL,可以进行数据查询、过滤、排序、聚合等操作;3、Python,拥有丰富的数据分析库;4、R,拥有丰富的统计分析库和图形库;5、Tableau,提供了直观易用的用户界面等等。

1133

2023.10.12

SQL中distinct的用法
SQL中distinct的用法

SQL中distinct的语法是“SELECT DISTINCT column1, column2,...,FROM table_name;”。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

340

2023.10.27

SQL中months_between使用方法
SQL中months_between使用方法

在SQL中,MONTHS_BETWEEN 是一个常见的函数,用于计算两个日期之间的月份差。想了解更多SQL的相关内容,可以阅读本专题下面的文章。

381

2024.02.23

SQL出现5120错误解决方法
SQL出现5120错误解决方法

SQL Server错误5120是由于没有足够的权限来访问或操作指定的数据库或文件引起的。想了解更多sql错误的相关内容,可以阅读本专题下面的文章。

2130

2024.03.06

sql procedure语法错误解决方法
sql procedure语法错误解决方法

sql procedure语法错误解决办法:1、仔细检查错误消息;2、检查语法规则;3、检查括号和引号;4、检查变量和参数;5、检查关键字和函数;6、逐步调试;7、参考文档和示例。想了解更多语法错误的相关内容,可以阅读本专题下面的文章。

380

2024.03.06

oracle数据库运行sql方法
oracle数据库运行sql方法

运行sql步骤包括:打开sql plus工具并连接到数据库。在提示符下输入sql语句。按enter键运行该语句。查看结果,错误消息或退出sql plus。想了解更多oracle数据库的相关内容,可以阅读本专题下面的文章。

1663

2024.04.07

sql中where的含义
sql中where的含义

sql中where子句用于从表中过滤数据,它基于指定条件选择特定的行。想了解更多where的相关内容,可以阅读本专题下面的文章。

585

2024.04.29

sql中删除表的语句是什么
sql中删除表的语句是什么

sql中用于删除表的语句是drop table。语法为drop table table_name;该语句将永久删除指定表的表和数据。想了解更多sql的相关内容,可以阅读本专题下面的文章。

439

2024.04.29

Go高并发任务调度与Goroutine池化实践
Go高并发任务调度与Goroutine池化实践

本专题围绕 Go 语言在高并发任务处理场景中的实践展开,系统讲解 Goroutine 调度模型、Channel 通信机制以及并发控制策略。内容包括任务队列设计、Goroutine 池化管理、资源限制控制以及并发任务的性能优化方法。通过实际案例演示,帮助开发者构建稳定高效的 Go 并发任务处理系统,提高系统在高负载环境下的处理能力与稳定性。

4

2026.03.10

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号