int64列默认占8字节,远超小整数实际需求;应手动用pd.to_numeric(..., downcast=...)降级为int32/int16/int8或category,兼顾内存与安全。

为什么 int64 列占内存远超实际需要
整数列默认用 int64,哪怕最大值才 100,它也坚持占 8 字节。100 万行就是 8MB,10 列就是 80MB——纯属浪费。Pandas 不会自动推断最小可行类型,得你手动干预。
实操建议:
- 先用
df.dtypes扫一遍,揪出所有int64和float64列 - 对每列跑
df[col].min()和df[col].max(),确认值域是否真需要 64 位 - 整数范围 ≤ ±2147483647 就可安全转
int32;≤ ±32767 用int16;只含小正整数(如 ID、状态码)且重复多,优先考虑category
用 pd.to_numeric(..., downcast=...) 安全降级
别手写 astype('int32') ——遇到空值或非数字会直接报错 ValueError: Cannot convert non-finite values (NA or inf) to integer。要用 Pandas 自带的向下转型工具,它能自动处理 NA 并选最紧致类型。
实操建议:
- 对数值列:用
pd.to_numeric(df[col], downcast='integer')或downcast='signed',它会依次试int8→int16→int32 - 对浮点列:用
downcast='float',可能从float64落到float32(省内存一半,但精度略降) - 务必加
errors='coerce'防止脏数据崩掉整列转换
category 不是万能的,但对低基数字符串/枚举极有效
字符串列(如 country、status)用 object 类型时,每行都存完整字符串指针+内容,内存爆炸。换成 category 后,只存唯一值列表 + 整数编码,压缩率常达 5–10 倍。
实操建议:
- 先算基数:
df[col].nunique() / len(df),比值 - 用
df[col] = df[col].astype('category')即可,无需预定义类别 - ⚠️ 警惕后续操作:
groupby默认保留未出现的 category,concat可能因 categories 不一致报错TypeError: categories must match;必要时用cat.remove_unused_categories()
一次性批量处理所有列的实用函数
逐列判断太慢,写个函数扫一遍更稳。核心逻辑是:数值列向下转型,低基数对象列转 category,其余不动。
示例代码(可直接粘贴运行):
def reduce_mem_usage(df):
for col in df.columns:
col_type = df[col].dtype
if col_type != 'object':
c_min = df[col].min()
c_max = df[col].max()
if str(col_type)[:3] == 'int':
if c_min >= -128 and c_max <= 127:
df[col] = df[col].astype('int8')
elif c_min >= -32768 and c_max <= 32767:
df[col] = df[col].astype('int16')
elif c_min >= -2147483648 and c_max <= 2147483647:
df[col] = df[col].astype('int32')
elif str(col_type)[:5] == 'float':
df[col] = pd.to_numeric(df[col], downcast='float')
else:
if df[col].nunique() / len(df) < 0.1:
df[col] = df[col].astype('category')
return df
调用:df_reduced = reduce_mem_usage(df)。注意:原地修改,别漏了返回值。
真正麻烦的是混合类型列(比如本该是数字却混了字符串),或者时间列没转 datetime64 就硬塞进 object——这些不会被上述逻辑覆盖,得单独清理。










