df.info()展示数据结构与内存占用,df.describe()统计数值分布;前者诊断类型与缺失,后者分析均值、分位数等,需注意类型过滤与性能开销。

用 df.info() 看数据结构和内存占用
df.info() 主要告诉你“这 DataFrame 长什么样、占多少内存、有没有空值”,不是统计数字本身。它会打印列名、非空计数、数据类型、内存使用量,适合快速诊断读取是否出错、字段类型是否合理。
常见错误现象:df.info() 显示某列全是 object 类型,但你本以为是数值——说明可能混入了空格、字符串(如 "N/A")、或缺失值被读成字符串;又或者 datetime 列没被自动解析,卡在 object 里。
- 调用前先确认
df确实是你想查的 DataFrame(别误用pd.read_csv(...).info(),那会返回None) - 加参数
verbose=True(默认)才显示每列详情;verbose=False只给摘要,适合大表速览 - 内存显示单位是字节,但实际可能远超预期——比如一列
object存短字符串,Python 每个字符串对象有额外开销,df.info(memory_usage='deep')才算真实内存
用 df.describe() 看数值列的分布特征
df.describe() 默认只对 number 类型列计算统计量:计数、均值、标准差、最小/最大、25%/50%/75% 分位数。它不处理 object 或 category 列,除非你显式要求。
使用场景:刚拿到清洗后的数值表,想一眼判断是否存在异常值(比如最大值明显偏离)、数据是否近似正态(看均值与中位数是否接近)、是否有大量缺失(计数明显少于行数)。
立即学习“Python免费学习笔记(深入)”;
- 想包含非数值列?加参数
include='all',这时object列会返回count、unique、top(最频繁值)、freq(出现频次) - 只想看某几列?传列表进去:
df.describe(include=['float64', 'int64'])或df[['col_a', 'col_b']].describe() - 百分位数可自定义:
df.describe(percentiles=[.1, .9]),比默认的四分位更早暴露长尾
describe() 的输出结果为什么有时列数变少了?
这不是 bug,是 Pandas 的类型过滤逻辑在起作用。默认 df.describe() 只保留 number 类型列;如果 DataFrame 里没有数值列(比如全是字符串或时间),结果就是空的 DataFrame,打印出来像“没东西”。
容易踩的坑:你刚用 pd.to_datetime() 转了一列日期,再跑 describe() 发现它不见了——因为 datetime64 不属于默认的 number 类型,得手动加 include='datetime' 或 include='all' 才会出现。
- 检查列类型:
df.dtypes,别靠肉眼猜 - 想让时间列也参与统计(如最早/最晚时间):
df.describe(include='datetime64') - 混合类型列(如
object里既有数字字符串又有文本)不会被describe(include='all')当作数值处理,仍只给count/unique等
性能和兼容性:大表别无脑 describe(include='all')
include='all' 会让 Pandas 对每列都做唯一值扫描和频次统计,遇到高基数字符串列(比如用户 ID、URL),速度会断崖式下降,甚至卡死。这不是设计缺陷,而是算法必然代价。
实际项目中,10 万行以上、含文本列的表,describe(include='all') 很可能比 describe() 慢几十倍,且返回结果难以阅读。
- 优先用
df.describe()+df.nunique()+df.isna().sum()组合替代include='all' - 真要查文本列分布?单独用
df['text_col'].value_counts().head(10),可控且快 - Pandas 1.4+ 开始,
describe()对category类型支持更好,但老版本可能跳过或报错,注意升级提示










