0

0

Python 大数据量统计的内存控制技巧

冷漠man

冷漠man

发布时间:2026-02-22 21:58:03

|

281人浏览过

|

来源于php中文网

原创

用pandas.read_csv避免oom需分块读取(chunksize)、精简数据类型(如category/int32)、跳过无用列(usecols)、关闭自动索引(index_col=false);频次统计优先groupby().size()配合分块,慎用value_counts;避免多次pd.concat,改用预存结果后单次合并;超大数据可哈希分桶落盘或用sqlite3临时聚合。

python 大数据量统计的内存控制技巧

pandas.read_csv 时怎么避免 OOM?

读大文件直接 read_csv 常常一跑就爆内存,不是数据真有那么大,而是默认参数把整张表全塞进内存还建了冗余索引。关键在分块 + 类型精简。

  • chunksize 参数,比如 chunksize=50000,返回的是可迭代的 TextFileReader,逐块处理,不累积
  • dtype 显式指定列类型:'category' 替代重复字符串,'int32''float32' 替代默认的 int64/float64
  • 跳过不用的列:加 usecols,比如只统计销量,就别读用户地址、备注这些字段
  • 关闭索引自动构建:index_col=False,除非你真要用它做 merge 或 groupby

统计聚合该用 groupby 还是 value_counts

value_counts 看似方便,但底层会先构建完整 Series 再去重计数,对超长列(如百亿级日志 ID)极易撑爆内存。而 groupby(...).size() 可配合 chunksize 流式累加。

  • 单列频次统计优先用 df[col].value_counts(dropna=False),但前提是这列能放进内存;否则改用分块 + collections.Counter 手动合并
  • 多列组合统计必须走 groupby,且要加 as_index=False 避免生成高维索引对象
  • 如果只是求和/均值等简单聚合,考虑用 agg 指定函数,比先 groupby 再调用方法更省内存(减少中间 DataFrame 构建)

为什么 pd.concat 是内存杀手?

很多人习惯把每块结果 append 到 list,最后一次性 pd.concat,这会导致 N 次内存拷贝:每 concat 一次,Python 就新建一个更大 DataFrame,旧的还没被 GC 掉。

动软商城系统
动软商城系统

动软商城系统是一款优秀的网上商城系统,经营者只需要轻松的后台操作,就可以马上拥有功能强的网上销售系统,同时动软商城系统提供多样的营销手段帮助您成功打开网上销售市场。动软的模版界面机制,可以轻松的搭建出风格各异的界面,最大限度的满足经营者的要求,还拥有专业SEO优化系统,大大提高网页被搜索引擎抓取收录的几率。动软商城系统先进的流程控制技术全面促进进、销、存等系统的协同,支持企业数据整合和网络资源信息

下载
  • 改用预分配 list 存每块的聚合结果(比如每个 chunk 返回一行 pd.Series),最后只 concat 一次
  • 更稳的做法:用 functools.reduce + pd.DataFrame.add(适用于相同结构的汇总表)
  • 实在要拼接,确保所有 chunk 的 dtypes 一致,否则 concat 会隐式升格(比如 int32 → int64),悄悄吃掉更多内存

磁盘临时聚合:当内存连单块都扛不住时

有些场景,比如上百 GB 日志按 IP 统计访问次数,连一块 chunksize=100000value_counts 都会 OOM——这时候得把中间状态落地。

立即学习Python免费学习笔记(深入)”;

  • hashlib.md5 对 key 做哈希取模,拆成多个临时文件(比如 100 个 tmp_00.csv ~ tmp_99.csv),每块只写对应桶
  • 各临时文件分别 read_csv + groupby,再合并结果
  • Python 标准库 sqlite3 也能扛住:建内存数据库或小文件 DB,用 INSERT OR REPLACE 累加计数,比 pandas 更低开销

真实项目里最常被忽略的,是列类型没提前压缩、chunksize 设得太大、以及以为 del df 就能立刻释放内存——其实得配合 gc.collect(),而且 pandas 底层的内存池不一定交还给系统。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
Python 时间序列分析与预测
Python 时间序列分析与预测

本专题专注讲解 Python 在时间序列数据处理与预测建模中的实战技巧,涵盖时间索引处理、周期性与趋势分解、平稳性检测、ARIMA/SARIMA 模型构建、预测误差评估,以及基于实际业务场景的时间序列项目实操,帮助学习者掌握从数据预处理到模型预测的完整时序分析能力。

76

2025.12.04

Python 数据清洗与预处理实战
Python 数据清洗与预处理实战

本专题系统讲解 Python 在数据清洗与预处理中的核心技术,包括使用 Pandas 进行缺失值处理、异常值检测、数据格式化、特征工程与数据转换,结合 NumPy 高效处理大规模数据。通过实战案例,帮助学习者掌握 如何处理混乱、不完整数据,为后续数据分析与机器学习模型训练打下坚实基础。

7

2026.01.31

数据类型有哪几种
数据类型有哪几种

数据类型有整型、浮点型、字符型、字符串型、布尔型、数组、结构体和枚举等。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

311

2023.10.31

php数据类型
php数据类型

本专题整合了php数据类型相关内容,阅读专题下面的文章了解更多详细内容。

223

2025.10.31

c语言 数据类型
c语言 数据类型

本专题整合了c语言数据类型相关内容,阅读专题下面的文章了解更多详细内容。

77

2026.02.12

js 字符串转数组
js 字符串转数组

js字符串转数组的方法:1、使用“split()”方法;2、使用“Array.from()”方法;3、使用for循环遍历;4、使用“Array.split()”方法。本专题为大家提供js字符串转数组的相关的文章、下载、课程内容,供大家免费下载体验。

616

2023.08.03

js截取字符串的方法
js截取字符串的方法

js截取字符串的方法有substring()方法、substr()方法、slice()方法、split()方法和slice()方法。本专题为大家提供字符串相关的文章、下载、课程内容,供大家免费下载体验。

217

2023.09.04

java基础知识汇总
java基础知识汇总

java基础知识有Java的历史和特点、Java的开发环境、Java的基本数据类型、变量和常量、运算符和表达式、控制语句、数组和字符串等等知识点。想要知道更多关于java基础知识的朋友,请阅读本专题下面的的有关文章,欢迎大家来php中文网学习。

1557

2023.10.24

pixiv网页版官网登录与阅读指南_pixiv官网直达入口与在线访问方法
pixiv网页版官网登录与阅读指南_pixiv官网直达入口与在线访问方法

本专题系统整理pixiv网页版官网入口及登录访问方式,涵盖官网登录页面直达路径、在线阅读入口及快速进入方法说明,帮助用户高效找到pixiv官方网站,实现便捷、安全的网页端浏览与账号登录体验。

1030

2026.02.13

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.4万人学习

Django 教程
Django 教程

共28课时 | 4.5万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.7万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号