0

0

Python数据划分策略:在指定子集大小下实现均值均衡

霞舞

霞舞

发布时间:2025-09-20 12:24:01

|

308人浏览过

|

来源于php中文网

原创

python数据划分策略:在指定子集大小下实现均值均衡

本文探讨如何在给定超集和预设子集大小的情况下,将超集元素无重复地划分到多个子集中,以使每个子集的均值尽可能接近超集的均值。文章将介绍如何将此问题建模为集合划分问题,并提供基于线性规划(使用PuLP库)的精确求解方案,同时探讨启发式算法如Karmarkar-Karp的适用性及性能考量,旨在为高效、公平的数据子集划分提供专业指导。

在数据分析和机器学习领域,我们经常需要将一个大型数据集(超集)划分为多个小型数据集(子集),以便进行交叉验证、并行处理或分组实验。一个常见的需求是确保这些子集在统计特性上与原始超集尽可能一致,特别是它们的均值。本文将深入探讨如何在满足子集大小预设要求的同时,实现子集均值与超集均值的最大程度接近。

问题定义与数学建模

假设我们有一个包含 M 个元素的超集 S,其中的元素是实数(通常是正浮点数)。我们的目标是将 S 无重复地划分为 N 个子集 S_0, S_1, ..., S_{N-1},每个子集 S_i 包含 x_i 个元素,且 sum(x_0, ..., x_{N-1}) == M。核心约束是使每个子集 S_i 的均值 mean(S_i) 尽可能接近超集的均值 mean(S)。

为了量化“接近程度”,我们可以定义一个误差函数。一个直观且“公平”的方法是最小化所有子集均值与超集均值之间绝对差值的总和。由于子集大小 x_i 是固定的,最小化均值差的绝对值之和等价于最小化子集元素和与目标和的绝对差值之和。具体来说,如果超集均值为 μ_S,则子集 S_i 的目标和为 x_i * μ_S。

这个优化问题可以归类为集合划分问题(Set Partitioning Problem)的一个变种,通常通过整数线性规划(ILP)来解决。

立即学习Python免费学习笔记(深入)”;

解决方案一:基于线性规划的精确求解 (使用 PuLP)

线性规划(Linear Programming, LP)是一种强大的优化工具,可以用来找到满足一系列线性约束的线性目标函数的最佳值。对于我们的问题,我们可以将其建模为一个整数线性规划问题。

核心思路

  1. 决策变量: 为超集中的每个元素 j 和每个子集 i 定义一个二进制决策变量 v_{ij}。如果元素 j 被分配到子集 i,则 v_{ij} = 1;否则 v_{ij} = 0。
  2. 目标函数: 最小化所有子集均值与超集均值绝对差值的总和。为了在线性规划中处理绝对值,我们引入辅助变量 abs_err_i,并通过两个不等式约束来表示 abs_err_i >= err_i 和 abs_err_i >= -err_i。
  3. 约束条件:
    • 子集大小约束: 每个子集 S_i 必须包含预设的 x_i 个元素。即 sum(v_{ij} for all j) = x_i。
    • 元素唯一性约束: 超集中的每个元素 j 只能被分配到一个且仅一个子集。即 sum(v_{ij} for all i) = 1。

PuLP 实现示例

PuLP 是一个 Python 库,用于建模和解决线性规划问题。以下代码展示了如何使用 PuLP 解决上述问题。

from statistics import mean
import pulp

def solve_subset_partitioning(superset_data, set_sizes):
    """
    使用PuLP解决子集划分问题,使各子集均值尽可能接近超集均值。

    Args:
        superset_data (list): 包含所有元素的超集列表。
        set_sizes (list): 包含每个子集所需元素数量的列表。

    Returns:
        tuple: (list of lists) 划分后的子集, (float) 超集均值
    """
    # 计算超集均值和总和
    superset_mean = mean(superset_data)
    target_total_sum = sum(superset_data) # 实际上我们关心的是均值,但PuLP更方便处理总和

    N = len(set_sizes)
    if sum(set_sizes) != len(superset_data):
        raise ValueError("所有子集大小之和必须等于超集元素总数。")

    # 初始化PuLP问题
    set_partitioning_model = pulp.LpProblem("Set_Partitioning_Model", pulp.LpMinimize)

    # 决策变量:covering[s][i] = 1 如果超集中的第i个元素被分配给子集s
    covering = {}
    for s_idx in range(N):
        vals = []
        for i, v in enumerate(superset_data):
            vals.append(
                pulp.LpVariable(
                    f"covering_set_{s_idx}_value_idx_{i:>02}_val_{v}",
                    lowBound=0,
                    upBound=1,
                    cat=pulp.LpInteger, # 0或1的整数变量
                )
            )
        covering[s_idx] = vals

    # 辅助变量:用于处理绝对误差
    abs_sum_errs = []
    for s_idx in range(N):
        set_sum_err_abs = pulp.LpVariable(f"set_{s_idx}_sum_error_abs", lowBound=0)
        abs_sum_errs.append(set_sum_err_abs)

    # 目标函数:最小化所有子集与超集目标和的绝对误差之和
    # 注意:这里我们最小化的是子集总和与超集总和的误差,因为超集总和是固定的。
    # 实际上,更直接的应该是最小化子集和与 (子集大小 * 超集均值) 的误差。
    # 为了简化,我们可以最小化子集和与一个“理想”总和的误差。
    # 或者,如原问题所述,最小化子集总和与 target_sum 的误差,这在某些情况下可能不够精确反映均值目标。
    # 让我们调整为最小化子集总和与 (子集大小 * 超集均值) 的误差。
    set_partitioning_model += pulp.lpSum(abs_sum_errs), "Total_Absolute_Error"

    for s_idx, st_vars in covering.items():
        # 计算当前子集s的元素总和
        current_set_sum = pulp.lpSum([p * superset_data[i] for i, p in enumerate(st_vars)])

        # 计算子集s的目标总和(基于超集均值和子集大小)
        target_set_sum = set_sizes[s_idx] * superset_mean

        # 计算子集s的总和误差
        set_sum_err = pulp.LpVariable(f"set_{s_idx}_sum_error")
        set_partitioning_model += set_sum_err == current_set_sum - target_set_sum, \
                                  f"Set_{s_idx}_Sum_Error_Definition"

        # 定义绝对误差的约束
        set_partitioning_model += abs_sum_errs[s_idx] >= set_sum_err, \
                                  f"Set_{s_idx}_Abs_Error_Upper_Bound_Pos"
        set_partitioning_model += abs_sum_errs[s_idx] >= -set_sum_err, \
                                  f"Set_{s_idx}_Abs_Error_Upper_Bound_Neg"

    # 约束:每个子集的大小是预设的
    for n, st_vars in zip(set_sizes, covering.values()):
        set_partitioning_model += pulp.lpSum(st_vars) == n, \
                                  f"Set_Size_Constraint_{set_sizes.index(n)}"

    # 约束:超集中的每个元素只能被使用一次
    for i, _ in enumerate(superset_data):
        set_partitioning_model += (
            pulp.lpSum([covering[s_idx][i] for s_idx in range(N)]) == 1,
            f"Element_{i}_Used_Once"
        )

    # 求解模型
    set_partitioning_model.solve(pulp.PULP_CBC_CMD(msg=False)) # msg=False 减少输出

    # 解析结果
    result_subsets = [[] for _ in range(N)]
    for s_idx in range(N):
        for i, var in enumerate(covering[s_idx]):
            if var.value() == 1:
                result_subsets[s_idx].append(superset_data[i])

    return result_subsets, superset_mean

# 示例 1: 完美分配
superset1 = [100]*5 + [101]*10 + [102]*5
set_sizes1 = [2, 4, 14]
result_subsets1, superset_mean1 = solve_subset_partitioning(superset1, set_sizes1)

print("--- 示例 1 结果 ---")
print(f"超集均值: {superset_mean1}")
for i, subset in enumerate(result_subsets1):
    print(f"子集 {i}: {subset}, 均值: {mean(subset)}")

# 示例 2: 最佳拟合(无法完美分配)
superset2 = [100]*5 + [103]*10 + [104]*5
set_sizes2 = [2, 4, 14]
result_subsets2, superset_mean2 = solve_subset_partitioning(superset2, set_sizes2)

print("\n--- 示例 2 结果 ---")
print(f"超集均值: {superset_mean2}")
for i, subset in enumerate(result_subsets2):
    print(f"子集 {i}: {subset}, 均值: {mean(subset)}")

示例 1 运行结果:

--- 示例 1 结果 ---
超集均值: 101
子集 0: [100, 102], 均值: 101
子集 1: [100, 100, 102, 102], 均值: 101
子集 2: [100, 100, 100, 101, 101, 101, 101, 101, 101, 101, 101, 102, 102, 102], 均值: 101

示例 2 运行结果:

Skybox AI
Skybox AI

一键将涂鸦转为360°无缝环境贴图的AI神器

下载
--- 示例 2 结果 ---
超集均值: 102.5
子集 0: [103, 103], 均值: 103
子集 1: [100, 100, 104, 104], 均值: 102
子集 2: [100, 100, 100, 103, 103, 103, 103, 103, 103, 103, 103, 104, 104, 104], 均值: 102.57142857142857

注意事项:

  • 计算复杂度: 线性规划求解器在理论上是多项式时间复杂度的,但在实际应用中,对于大规模的整数线性规划问题(变量数量和约束数量都很大),求解时间可能会显著增加。当超集元素数量和子集数量都很大时,可能无法在1秒内得到结果。
  • 绝对值处理: 在线性规划中,目标函数或约束中不能直接包含绝对值。通过引入辅助变量和一对不等式约束,可以将 |x| 转换为线性形式:y >= x 和 y >= -x,其中 y 是要最小化的变量。
  • PuLP求解器: PuLP 默认使用 CBC 求解器,这是一个开源的混合整数规划求解器。对于更复杂的商业求解器(如 Gurobi, CPLEX),可能需要额外的配置。

解决方案二:启发式算法 (Karmarkar-Karp)

当精确求解的计算成本过高时,启发式算法提供了一种快速获得近似解的方法。Karmarkar-Karp 算法(也称为最大差值法)是解决数集划分问题的一种著名启发式算法,其目标是将一组数字划分为两部分,使两部分的和尽可能接近。

算法特点与局限性

Karmarkar-Karp 算法通常用于将一个集合划分为指定数量的子集,使其各子集的尽可能相等。然而,它不直接支持预设子集大小的约束。这意味着,虽然它能尝试使子集的均值接近(通过使和接近),但它无法保证每个子集都包含特定数量的元素。

因此,Karmarkar-Karp 算法不完全符合我们原始问题中“创建 N 个包含 x0, ..., xn 元素的子集”的要求,但可以作为一种快速探索均值均衡分配的思路,或者在子集大小约束不那么严格时使用。

numberpartitioning 库示例

numberpartitioning 是一个 Python 库,实现了 Karmarkar-Karp 算法。

from statistics import mean
from numberpartitioning import karmarkar_karp

superset = [100]*5 + [103]*10 + [104]*5
# 注意:Karmarkar-Karp算法不接受预设的子集大小
# 它会尝试将超集划分为指定数量的子集,使它们的和(或均值)尽可能接近。

print("--- Karmarkar-Karp 算法示例 ---")
print(f"超集均值: {mean(superset)}")
# 将超集划分为 3 个部分
for p in karmarkar_karp(superset, num_parts=3).partition:
    print(f"子集: {p}, 均值: {mean(p)}")

运行结果:

--- Karmarkar-Karp 算法示例 ---
超集均值: 102.5
子集: [104, 104, 103, 103, 103, 100], 均值: 102.83333333333333
子集: [100, 103, 104, 103, 103, 103, 100], 均值: 102.28571428571429
子集: [100, 104, 104, 103, 103, 103, 100], 均值: 102.42857142857143

从结果可以看出,Karmarkar-Karp 算法确实生成了均值相对接近的子集,但这些子集的大小(分别为 6, 7, 7)与我们预设的 [2, 4, 14] 并不匹配。

性能考量与策略选择

根据问题的规模和对精确度的要求,可以采用不同的策略:

  1. 小规模问题(超集元素少,子集数量少):
    • 策略: 直接使用线性规划(如 PuLP 方案)。它能找到最优解,确保均值偏差最小。
    • 适用场景: 超集元素数量在几百以内,子集数量在几十以内。
    • 优势: 结果

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
页面置换算法
页面置换算法

页面置换算法是操作系统中用来决定在内存中哪些页面应该被换出以便为新的页面提供空间的算法。本专题为大家提供页面置换算法的相关文章,大家可以免费体验。

412

2023.08.14

C++ 设计模式与软件架构
C++ 设计模式与软件架构

本专题深入讲解 C++ 中的常见设计模式与架构优化,包括单例模式、工厂模式、观察者模式、策略模式、命令模式等,结合实际案例展示如何在 C++ 项目中应用这些模式提升代码可维护性与扩展性。通过案例分析,帮助开发者掌握 如何运用设计模式构建高质量的软件架构,提升系统的灵活性与可扩展性。

14

2026.01.30

c++ 字符串格式化
c++ 字符串格式化

本专题整合了c++字符串格式化用法、输出技巧、实践等等内容,阅读专题下面的文章了解更多详细内容。

9

2026.01.30

java 字符串格式化
java 字符串格式化

本专题整合了java如何进行字符串格式化相关教程、使用解析、方法详解等等内容。阅读专题下面的文章了解更多详细教程。

12

2026.01.30

python 字符串格式化
python 字符串格式化

本专题整合了python字符串格式化教程、实践、方法、进阶等等相关内容,阅读专题下面的文章了解更多详细操作。

4

2026.01.30

java入门学习合集
java入门学习合集

本专题整合了java入门学习指南、初学者项目实战、入门到精通等等内容,阅读专题下面的文章了解更多详细学习方法。

20

2026.01.29

java配置环境变量教程合集
java配置环境变量教程合集

本专题整合了java配置环境变量设置、步骤、安装jdk、避免冲突等等相关内容,阅读专题下面的文章了解更多详细操作。

18

2026.01.29

java成品学习网站推荐大全
java成品学习网站推荐大全

本专题整合了java成品网站、在线成品网站源码、源码入口等等相关内容,阅读专题下面的文章了解更多详细推荐内容。

19

2026.01.29

Java字符串处理使用教程合集
Java字符串处理使用教程合集

本专题整合了Java字符串截取、处理、使用、实战等等教程内容,阅读专题下面的文章了解详细操作教程。

3

2026.01.29

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.4万人学习

Django 教程
Django 教程

共28课时 | 3.7万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.3万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号