0

0

使用SciPy解决列表子集和问题:基于Knapsack算法的优化裁剪策略

聖光之護

聖光之護

发布时间:2025-09-11 14:58:01

|

296人浏览过

|

来源于php中文网

原创

使用SciPy解决列表子集和问题:基于Knapsack算法的优化裁剪策略

本教程探讨如何从一个包含具有不同“面积”属性对象的列表中,选择一个子集,使其总面积接近目标值,同时最大化保留的对象数量。我们将此问题建模为0/1背包问题,并利用SciPy库中的milp函数实现高效优化,提供详细的代码示例和解释。

问题背景与挑战

在实际应用中,我们经常会遇到需要从一组具有特定属性(例如,面积、体积、成本等)的对象中,选择一个子集以满足某个总和目标的问题。具体来说,假设我们有一个myclass实例列表obj_list,每个实例都含有一个area属性。我们的目标是从这个列表中移除最少数量的实例,使得剩余实例的总面积tot_area尽可能接近一个预设的target_area,允许一定的上下浮动。

一个直观但存在缺陷的思路是:首先对所有实例按面积进行排序,然后从最小的实例开始移除,直到总面积达到目标。然而,这种贪心策略可能不是最优的。例如,移除几个小面积实例可能不如移除一个特定的大面积实例更能有效地达到目标,同时保留更多的对象。因此,我们需要一种更系统、更优化的方法来解决这个问题。

问题建模:Knapsack算法

上述问题实际上是著名的Knapsack(背包)问题的一个变种。在经典的0/1背包问题中,我们有一组物品,每个物品都有一个重量和一个价值,目标是在不超过背包容量的前提下,最大化装入物品的总价值。

将我们的问题映射到Knapsack模型中:

  • 物品(Items):obj_list中的每个MyClass实例。
  • 重量(Weights):每个实例的area属性。
  • 价值(Values):由于我们的目标是“移除最少数量的实例”,这等价于“最大化保留的实例数量”。因此,我们将每个实例的价值都设为1。
  • 背包容量(Knapsack Capacity):不是一个固定的值,而是一个范围。我们希望总面积tot_area落在target_area附近的一个可接受区间内。

因此,我们的目标是选择一个实例子集,使得这些实例的总面积落在目标范围内,并且所选实例的总价值(即数量)最大化。

基于SciPy的混合整数线性规划(MILP)实现

解决0/1背包问题通常可以通过动态规划或整数线性规划(ILP)来实现。Python的SciPy库提供了scipy.optimize.milp函数,这是一个用于解决混合整数线性规划问题的强大工具,非常适合我们这里的0/1背包问题。

PictoGraphic
PictoGraphic

AI驱动的矢量插图库和插图生成平台

下载

milp函数的核心思想是将问题表述为: 最小化 c @ x 受限于 lb

其中:

  • x 是决策变量向量,每个元素x_i代表是否选择第i个物品(0表示不选,1表示选择)。
  • c 是目标函数的系数向量。由于milp是最小化问题,而我们希望最大化选中的物品数量,因此我们将c设置为物品价值的负值。
  • A 是约束矩阵。
  • lb 和 ub 是约束的下界和上界。
  • integrality 指定哪些变量必须是整数。
  • bounds 指定变量的取值范围。

示例代码与解析

下面通过一个具体的Python示例来展示如何使用scipy.optimize.milp解决此问题:

import numpy as np
from scipy import optimize
from scipy.optimize import milp

# 1. 数据准备
# 假设的实例面积列表,代表MyClass实例的area属性
sizes = np.array([0.003968, 0.0148, 0.022912, 0.024832, 0.02912, 0.032448,
                  0.034176, 0.035136, 0.035584, 0.049344, 0.057984, 0.059904,
                  0.063744, 0.080064, 0.085824])
# 目标总面积
target_area = 0.45
# 允许的目标面积误差百分比,实现“软边界”
pct_error = 0.03

# 2. 定义目标函数系数
# 由于我们希望最大化选择的实例数量,因此将所有实例的“价值”设为1。
# milp函数是最小化目标函数,所以我们将系数设为负值,以达到最大化效果。
values = np.full_like(sizes, 1.0)
c = -values

# 3. 定义决策变量的属性
# integrality: 决策变量x_i必须是整数(0或1),表示选中或未选中。
integrality = np.full_like(values, True)
# bounds: 决策变量x_i的取值范围为[0, 1]。结合integrality,使其成为布尔变量。
bounds = optimize.Bounds(0, 1)

# 4. 定义约束条件
# 计算目标面积的上下限,形成一个“软边界”
lb = (1 - pct_error) * target_area
ub = (1 + pct_error) * target_area
# 线性约束:所有选中实例的面积之和必须落在[lb, ub]区间内。
# A矩阵在这里是一个行向量,其元素就是各个实例的面积。
constraints = optimize.LinearConstraint(A=sizes, lb=lb, ub=ub)

# 5. 执行混合整数线性规划
optimization_result = milp(c=c, constraints=constraints,
                           integrality=integrality, bounds=bounds)

# 6. 结果解读
if not optimization_result.success:
    raise RuntimeError('MILP优化过程失败!')

# optimization_result.x 是决策变量的最终值,表示哪些实例被选中(接近1)
# 通过astype(bool)将其转换为布尔数组,方便筛选
selected_indices = optimization_result.x.astype(bool)

print(f'优化后的总面积: {sizes[selected_indices].sum()}')
# 示例输出: 优化后的总面积: 0.45998399999999995

print(f'决策变量结果 (选中为1,未选中为0):\n{optimization_result.x}')
# 示例输出: 决策变量结果 (选中为1,未选中为0):
# [0. 1. 1. 1. 1. 1. 1. 1. 1. 1. 1. 1. 1. 0. 0.]

print(f'选中的实例面积列表:\n{sizes[selected_indices]}')
# 示例输出: 选中的实例面积列表:
# [0.0148   0.022912 0.024832 0.02912  0.032448 0.034176 0.035136 0.035584
#  0.049344 0.057984 0.059904 0.063744]

代码解析要点:

  1. 数据准备:sizes数组包含了所有MyClass实例的面积。target_area是我们希望达到的总面积,pct_error定义了可接受的误差范围。
  2. 目标函数:values数组中的每个元素都为1,表示每个实例的“价值”相同。c = -values是为了将最大化问题(最大化选中的实例数量)转换为milp函数所需的最小化问题。
  3. 决策变量:integrality=True确保x_i只能取整数值。bounds=(0, 1)限制x_i在0到1之间。这两者结合,使得x_i成为0/1的布尔决策变量。
  4. 约束条件:lb和ub根据target_area和pct_error计算得出,定义了总面积的允许范围。optimize.LinearConstraint(A=sizes, lb=lb, ub=ub)构建了一个线性约束,要求所有被选中的实例的面积之和必须落在这个范围内。
  5. 优化执行:milp函数接收这些参数并执行优化,返回一个包含结果的对象optimization_result。
  6. 结果解读:optimization_result.x是最终的决策变量数组。其中值为1(或非常接近1)的索引对应被选中的实例,值为0的索引对应被移除的实例。通过布尔索引,我们可以轻松地获取选中的实例及其总面积。

注意事项与最佳实践

  • “软边界”的灵活性:通过pct_error参数,我们可以灵活地控制目标面积的容忍度,这在许多实际场景中非常有用,比严格的单一目标值更具实用性。
  • 0/1整数规划:milp函数非常适合处理这种二元决策(选或不选)的问题。对于更复杂的整数规划问题(如变量可以取任意整数值),milp同样适用。
  • 错误处理:在调用milp后,务必检查optimization_result.success属性。如果为False,表示优化过程未能成功找到可行解,需要根据具体情况进行调试或调整参数。
  • 性能考量:对于大规模问题(例如,实例数量非常庞大),MILP的求解时间可能会显著增加。在这种情况下,可能需要考虑使用更专业的优化求解器(如Gurobi、CPLEX)或探索近似算法。
  • 问题泛化:此方法不仅适用于“面积”,还可以推广到任何需要从列表中选择子集以使某个属性总和接近目标值,同时最大化/最小化其他属性总和的问题。

总结

通过将列表裁剪问题建模为0/1背包问题,并利用SciPy库中的milp函数,我们能够高效且准确地找到一个最优的实例子集,使其总面积接近目标值,并最大化保留的实例数量。这种方法克服了简单贪心策略的局限性,提供了一个专业且可靠的解决方案,适用于各种需要进行组合优化的场景。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
页面置换算法
页面置换算法

页面置换算法是操作系统中用来决定在内存中哪些页面应该被换出以便为新的页面提供空间的算法。本专题为大家提供页面置换算法的相关文章,大家可以免费体验。

407

2023.08.14

俄罗斯Yandex引擎入口
俄罗斯Yandex引擎入口

2026年俄罗斯Yandex搜索引擎最新入口汇总,涵盖免登录、多语言支持、无广告视频播放及本地化服务等核心功能。阅读专题下面的文章了解更多详细内容。

177

2026.01.28

包子漫画在线官方入口大全
包子漫画在线官方入口大全

本合集汇总了包子漫画2026最新官方在线观看入口,涵盖备用域名、正版无广告链接及多端适配地址,助你畅享12700+高清漫画资源。阅读专题下面的文章了解更多详细内容。

35

2026.01.28

ao3中文版官网地址大全
ao3中文版官网地址大全

AO3最新中文版官网入口合集,汇总2026年主站及国内优化镜像链接,支持简体中文界面、无广告阅读与多设备同步。阅读专题下面的文章了解更多详细内容。

79

2026.01.28

php怎么写接口教程
php怎么写接口教程

本合集涵盖PHP接口开发基础、RESTful API设计、数据交互与安全处理等实用教程,助你快速掌握PHP接口编写技巧。阅读专题下面的文章了解更多详细内容。

2

2026.01.28

php中文乱码如何解决
php中文乱码如何解决

本文整理了php中文乱码如何解决及解决方法,阅读节专题下面的文章了解更多详细内容。

4

2026.01.28

Java 消息队列与异步架构实战
Java 消息队列与异步架构实战

本专题系统讲解 Java 在消息队列与异步系统架构中的核心应用,涵盖消息队列基本原理、Kafka 与 RabbitMQ 的使用场景对比、生产者与消费者模型、消息可靠性与顺序性保障、重复消费与幂等处理,以及在高并发系统中的异步解耦设计。通过实战案例,帮助学习者掌握 使用 Java 构建高吞吐、高可靠异步消息系统的完整思路。

8

2026.01.28

Python 自然语言处理(NLP)基础与实战
Python 自然语言处理(NLP)基础与实战

本专题系统讲解 Python 在自然语言处理(NLP)领域的基础方法与实战应用,涵盖文本预处理(分词、去停用词)、词性标注、命名实体识别、关键词提取、情感分析,以及常用 NLP 库(NLTK、spaCy)的核心用法。通过真实文本案例,帮助学习者掌握 使用 Python 进行文本分析与语言数据处理的完整流程,适用于内容分析、舆情监测与智能文本应用场景。

24

2026.01.27

拼多多赚钱的5种方法 拼多多赚钱的5种方法
拼多多赚钱的5种方法 拼多多赚钱的5种方法

在拼多多上赚钱主要可以通过无货源模式一件代发、精细化运营特色店铺、参与官方高流量活动、利用拼团机制社交裂变,以及成为多多进宝推广员这5种方法实现。核心策略在于通过低成本、高效率的供应链管理与营销,利用平台社交电商红利实现盈利。

122

2026.01.26

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.3万人学习

Django 教程
Django 教程

共28课时 | 3.6万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.3万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号