describe() 默认仅统计数值型列,非数值列被跳过;需用dtypes检查类型,to_numeric强转或include参数包含非数值列;percentiles可自定义分位数;groupby后宜用agg替代以避免MultiIndex问题;缺失值自动忽略但影响分位数稳定性。

describe() 为什么返回空或只有 count?
常见现象是调用 df.describe() 后只看到 count 一列,或者压根没数值型列——这是因为 describe() 默认只对数值型(int64、float64 等)列生效,字符串、时间、类别型列直接被跳过。
实操建议:
立即学习“Python免费学习笔记(深入)”;
- 先用
df.dtypes检查列类型,确认目标列确实是数值型;如果不是,用pd.to_numeric(df['col'], errors='coerce')强转,errors='coerce'会把无法解析的值变NaN而不报错 - 若想强制包含非数值列(比如看字符串长度分布),加参数
include='all'或明确指定类型,如include=['object', 'number'] -
describe()对datetime64列默认不处理,需先转成数值(如.astype('int64'))或用df['col'].dt访问器单独统计
describe() 输出的百分位数怎么控制?
默认输出 25%、50%(中位数)、75% 分位数,但实际业务常需要 90%、95% 或自定义点。这不是 bug,是设计如此——得靠 percentiles 参数显式传入。
实操建议:
立即学习“Python免费学习笔记(深入)”;
- 传入小数列表,例如
df.describe(percentiles=[.1, .5, .9])会输出10%、50%、90%行 - 注意:传入值必须在
[0, 1]区间内,[0, 1]本身合法(即最小/最大值),但0.0和1.0不会自动显示为min/max,仍标为0%/100% - 如果同时设了
percentiles又想保留默认的25%/50%/75%,得手动补全:[.25, .5, .75] + [.9, .95]
describe() 在 groupby 后怎么用才不出错?
写 df.groupby('category').describe() 看似合理,但结果会出现多层列索引(MultiIndex),列名变成 (数值列名, 统计量名),后续取数容易报 KeyError。
实操建议:
立即学习“Python免费学习笔记(深入)”;
- 最稳的方式是链式调用:先
groupby,再对单列用.agg显式指定统计项,比如df.groupby('cat')['value'].agg(['mean', 'std', 'count']) - 若坚持用
describe(),后续取某统计量需用元组索引,例如result[('value', 'mean')];也可用result.stack(0).reset_index(name='value')展平结构 - 性能上,
describe()在 groupby 后比等价的agg稍慢,因它内部做了冗余计算(比如总要算所有分位数),大数据量时建议优先选agg
describe() 的缺失值会影响哪些统计结果?
count 是非空值个数,其余统计量(mean、std 等)默认已自动忽略 NaN,这点和 NumPy 不同(np.mean([1,2,np.nan]) 会返回 nan)。但容易忽略的是:分位数计算对缺失值敏感,尤其样本少时。
实操建议:
立即学习“Python免费学习笔记(深入)”;
-
describe()中的count是唯一反映缺失程度的指标,别指望它显示nan_count或missing_rate,得自己算:df.isna().sum() / len(df) - 当某列缺失率极高(比如 >95%),
describe()返回的mean、std可能不稳定,建议加判断:if df['col'].count() - 如果想让
describe()把NaN当作有效值参与计算(极少见),必须先填充,例如df.fillna(0).describe(),但此举会扭曲原始分布
真正麻烦的不是不会调用 describe(),而是没意识到它背后默认过滤 NaN、默认忽略非数值列、默认只算三个分位数——这些“默认”恰恰是调试时最常卡住的地方。










