0

0

深入解析:NumPy数组与Python列表存储大小差异及优化策略

霞舞

霞舞

发布时间:2025-10-05 12:27:38

|

342人浏览过

|

来源于php中文网

原创

深入解析:NumPy数组与Python列表存储大小差异及优化策略

本文旨在探讨NumPy数组在特定场景下为何可能比等效的Python列表占用更多存储空间,并提供优化NumPy数组存储大小的方法。核心在于理解NumPy的原始数据存储方式与Pickle序列化Python列表时对共享对象引用的处理机制,并介绍使用numpy.savez_compressed进行数据压缩的实践。

1. NumPy数组的存储机制

numpy数组以连续的内存块存储数据,其大小直接由数组的形状(shape)和数据类型(dtype)决定,且默认情况下不进行压缩。这种设计旨在提供高效的数值计算性能,因为数据可以被快速访问和处理。

例如,一个形状为 (10000, 10000, 7) 且数据类型为 np.float16 的NumPy数组,其理论存储大小可以通过以下方式计算:

  • 数组元素总数:10000 * 10000 * 7 = 700,000,000
  • np.float16 占用内存:2 字节(16位)
  • 总存储大小:700,000,000 * 2 字节 = 1,400,000,000 字节 = 1.4 GB

这与观察到的1.4 GB大小完全吻合。NumPy在保存这类数组时,会直接将这些原始的二进制数据写入文件,因此文件大小与内存中的数据大小基本一致。

2. Python列表与Pickle的优化策略

与NumPy数组的原始存储不同,Python列表存储的是对对象的引用。当使用 pickle 模块序列化Python列表时,pickle 会智能地处理共享对象引用。如果列表中包含多个对同一个对象的引用,pickle 只会序列化该对象一次,然后在其他位置存储对该已序列化对象的引用。这可以显著减少文件大小,尤其是在数据存在大量重复引用时。

考虑以下场景: 假设我们有一个 all_games 列表,其中包含多个7元素的浮点数子列表。当我们通过 random.choice(all_games) 构造一个大型的 sampled_data 列表时,sampled_data 中的每个元素实际上是对 all_games 中某个现有子列表的引用,而不是创建新的子列表对象。

示例代码:Python列表的采样与Pickle序列化

立即学习Python免费学习笔记(深入)”;

import random
import pickle
import sys

# 假设 all_games 包含一些7元素的列表
# 为了演示,我们创建一个简单的 all_games
all_games = [[float(i), float(i+1), float(i+2), float(i+3), float(i+4), float(i+5), float(i+6)] for i in range(100)]

def sample_and_pickle_list(all_games, file_name, DRAW=10000, SAMPLE=10000):
    print(f"开始生成Python列表 (SAMPLE={SAMPLE}, DRAW={DRAW})...")
    # sampled_data 存储的是对 all_games 中现有子列表的引用
    sampled_data = [[random.choice(all_games) for _ in range(DRAW)] for _ in range(SAMPLE)]

    print(f"生成的列表内存大小估算 (sys.getsizeof): {sys.getsizeof(sampled_data) / (1024**2):.2f} MB (仅顶层列表)")

    with open(file_name, 'wb') as file:
        pickle.dump(sampled_data, file)
    print(f"Python列表已保存到 {file_name},文件大小可能远小于NumPy数组。")

# 调用函数进行演示
# sample_and_pickle_list(all_games, 'sampled_list.pkl')

在这种情况下,由于 sampled_data 中大量元素引用了 all_games 中相同的少量子列表对象,pickle 在序列化时只存储这些独特的子列表一次,然后记录它们的引用关系,从而导致最终的 .pkl 文件远小于NumPy数组的原始数据大小(例如,500 MB 对比 1.4 GB)。

关键验证:强制复制对象

ImgGood
ImgGood

免费在线AI照片编辑器

下载

如果我们在创建 sampled_data 时强制复制每个子列表,即 random.choice(all_games).copy(),那么 sampled_data 将包含大量独立的子列表对象。在这种情况下,pickle 将不得不序列化每一个独立的子列表,文件大小将急剧增加,甚至可能超过NumPy数组的大小(例如,达到4.4 GB)。这有力地证明了 pickle 对共享引用的优化作用。

3. 优化NumPy数组存储大小

当NumPy数组占用过多存储空间时,最直接有效的优化方法是使用NumPy自带的压缩功能。numpy.savez_compressed 函数可以将NumPy数组保存为 .npz 格式,并使用 zip 压缩算法对数据进行压缩。

示例代码:NumPy数组的采样与压缩保存

import numpy as np
import random
import os

# 假设 all_games 包含一些7元素的列表
# 为了演示,我们创建一个简单的 all_games
all_games_list = [[float(i), float(i+1), float(i+2), float(i+3), float(i+4), float(i+5), float(i+6)] for i in range(100)]
# 将 all_games 转换为 NumPy 数组以便后续采样
all_games_np = np.array(all_games_list, dtype=np.float16)


def sample_and_save_numpy(all_games_source, file_name, DRAW=10000, SAMPLE=10000):
    print(f"开始生成NumPy数组 (SAMPLE={SAMPLE}, DRAW={DRAW})...")
    # 生成随机索引
    rng = np.random.default_rng()
    sampled_indices = rng.choice(all_games_source.shape[0], size=(SAMPLE, DRAW), replace=True)
    # 根据索引获取采样数据
    sampled_data_np = all_games_source[sampled_indices]

    print(f"生成的NumPy数组形状: {sampled_data_np.shape}, dtype: {sampled_data_np.dtype}")
    print(f"NumPy数组原始内存大小估算: {sampled_data_np.nbytes / (1024**3):.2f} GB")

    # 1. 不压缩保存 (对应原始问题中的1.4GB情况)
    uncompressed_file_name = file_name.replace('.npz', '_uncompressed.npy')
    np.save(uncompressed_file_name, sampled_data_np)
    print(f"NumPy数组未压缩保存到 {uncompressed_file_name},文件大小: {os.path.getsize(uncompressed_file_name) / (1024**3):.2f} GB")

    # 2. 压缩保存
    compressed_file_name = file_name
    np.savez_compressed(compressed_file_name, data=sampled_data_np)
    print(f"NumPy数组压缩保存到 {compressed_file_name},文件大小: {os.path.getsize(compressed_file_name) / (1024**2):.2f} MB")

# 调用函数进行演示
# sample_and_save_numpy(all_games_np, 'sampled_numpy_compressed.npz')

通过使用 np.savez_compressed,我们可以预期将1.4 GB的NumPy数组显著压缩,使其文件大小可能远小于原始的500 MB pickled列表,具体压缩率取决于数据的重复性和可压缩性。

4. 注意事项与最佳实践

  • 理解数据结构与序列化机制: 在处理大量数据时,深入理解底层数据结构(NumPy数组的原始存储 vs. Python列表的对象引用)及其序列化方式(np.save 的直接写入 vs. pickle 的智能引用处理)至关重要。
  • 选择合适的工具
    • 对于需要高性能数值计算和连续内存访问的场景,NumPy是首选。
    • 对于包含复杂Python对象结构、且可能存在大量共享引用的数据,pickle 配合Python列表可能在文件大小上有优势(如果共享引用优化生效)。
  • 压缩与性能的权衡: numpy.savez_compressed 能够有效减小文件大小,但代价是保存和加载时需要额外的CPU时间进行压缩和解压缩。在对I/O性能要求极高的场景下,可能需要权衡是否使用压缩。
  • 数据类型优化: 即使不压缩,选择最小合适的数据类型(如 np.float16 而非 np.float64)也能显著减少NumPy数组的存储空间。

总结

NumPy数组与Python列表在存储方式上存在根本差异。NumPy数组默认以原始、未压缩的连续内存块存储数据,其文件大小直接反映数据量。而Python列表通过存储对象引用,结合 pickle 在序列化时对共享引用的优化,可以在数据存在大量重复引用时实现更小的文件大小。为了优化NumPy数组的存储空间,推荐使用 numpy.savez_compressed 进行数据压缩,这通常能有效减小文件体积,甚至使其小于等效的Python pickled列表。在实际应用中,理解这些机制并根据具体需求选择最合适的数据结构和存储方法是高效数据处理的关键。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
数据类型有哪几种
数据类型有哪几种

数据类型有整型、浮点型、字符型、字符串型、布尔型、数组、结构体和枚举等。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

338

2023.10.31

php数据类型
php数据类型

本专题整合了php数据类型相关内容,阅读专题下面的文章了解更多详细内容。

225

2025.10.31

c语言 数据类型
c语言 数据类型

本专题整合了c语言数据类型相关内容,阅读专题下面的文章了解更多详细内容。

138

2026.02.12

treenode的用法
treenode的用法

​在计算机编程领域,TreeNode是一种常见的数据结构,通常用于构建树形结构。在不同的编程语言中,TreeNode可能有不同的实现方式和用法,通常用于表示树的节点信息。更多关于treenode相关问题详情请看本专题下面的文章。php中文网欢迎大家前来学习。

550

2023.12.01

C++ 高效算法与数据结构
C++ 高效算法与数据结构

本专题讲解 C++ 中常用算法与数据结构的实现与优化,涵盖排序算法(快速排序、归并排序)、查找算法、图算法、动态规划、贪心算法等,并结合实际案例分析如何选择最优算法来提高程序效率。通过深入理解数据结构(链表、树、堆、哈希表等),帮助开发者提升 在复杂应用中的算法设计与性能优化能力。

30

2025.12.22

深入理解算法:高效算法与数据结构专题
深入理解算法:高效算法与数据结构专题

本专题专注于算法与数据结构的核心概念,适合想深入理解并提升编程能力的开发者。专题内容包括常见数据结构的实现与应用,如数组、链表、栈、队列、哈希表、树、图等;以及高效的排序算法、搜索算法、动态规划等经典算法。通过详细的讲解与复杂度分析,帮助开发者不仅能熟练运用这些基础知识,还能在实际编程中优化性能,提高代码的执行效率。本专题适合准备面试的开发者,也适合希望提高算法思维的编程爱好者。

45

2026.01.06

treenode的用法
treenode的用法

​在计算机编程领域,TreeNode是一种常见的数据结构,通常用于构建树形结构。在不同的编程语言中,TreeNode可能有不同的实现方式和用法,通常用于表示树的节点信息。更多关于treenode相关问题详情请看本专题下面的文章。php中文网欢迎大家前来学习。

550

2023.12.01

C++ 高效算法与数据结构
C++ 高效算法与数据结构

本专题讲解 C++ 中常用算法与数据结构的实现与优化,涵盖排序算法(快速排序、归并排序)、查找算法、图算法、动态规划、贪心算法等,并结合实际案例分析如何选择最优算法来提高程序效率。通过深入理解数据结构(链表、树、堆、哈希表等),帮助开发者提升 在复杂应用中的算法设计与性能优化能力。

30

2025.12.22

TypeScript类型系统进阶与大型前端项目实践
TypeScript类型系统进阶与大型前端项目实践

本专题围绕 TypeScript 在大型前端项目中的应用展开,深入讲解类型系统设计与工程化开发方法。内容包括泛型与高级类型、类型推断机制、声明文件编写、模块化结构设计以及代码规范管理。通过真实项目案例分析,帮助开发者构建类型安全、结构清晰、易维护的前端工程体系,提高团队协作效率与代码质量。

49

2026.03.13

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.5万人学习

Django 教程
Django 教程

共28课时 | 5万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.9万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号