explode()不能直接展开嵌套dict,需先转为list;展开后需用pd.json_normalize()等解析为列;混合类型须预处理;性能敏感时应避免链式apply+explode。

explode() 不能直接展开嵌套 dict,必须先转成 list
如果你的列里存的是 {'a': 1, 'b': 2} 这样的 dict,直接对它调用 explode() 会报错:AttributeError: 'dict' object has no attribute 'len'。因为 explode() 只认 list、tuple、Series、np.ndarray 这类可迭代且有长度的对象,dict 不在支持范围内。
解决办法是先统一转成 list:比如把每个 dict 包进一个单元素 list,或者用 apply(list)(如果原本是 Series of dict);更常见的是先用 apply(lambda x: [x] if isinstance(x, dict) else x) 做兜底转换。
- 错误写法:
df.explode('col')(当col是 dict 类型时) - 安全写法:
df.assign(col=df['col'].apply(lambda x: [x] if isinstance(x, dict) else x)).explode('col') - 若 dict 需拆成多行字段,后续还得接
pd.json_normalize()或pd.DataFrame(df['col'].tolist()).add_prefix('col_')
list of dict 展开后字段不自动扁平化,得手动归一化
explode() 对 [{'a': 1}, {'a': 2}] 这种 list of dict 生效,但它只负责“行数膨胀”,不会把 dict 里的 key 拆成独立列。结果仍是每行一个 dict,类型是 object,没法直接 df['col.a'] 访问。
必须额外做一步结构化解析:
- 推荐用
pd.json_normalize(df['col']),它能自动处理嵌套、缺失 key、甚至多层 dict - 简单场景可用
pd.DataFrame(df['col'].tolist()),但要求所有 dict 的 key 完全一致,否则会出 NaN 或列错位 - 如果原列名要保留前缀,加
.add_prefix('col_'),避免和原 df 其他列重名
混合类型 list(含 None / NaN / dict / list)要先清洗再 explode
现实数据常出现 [{'a':1}, None, [{'b':2}], {'c':3}] 这种混乱结构。直接 explode() 会失败或静默丢弃 None,而 NaN 更麻烦——pd.isna() 判定为 True,但 explode() 遇到它会跳过整行(不是跳过该单元格)。
稳妥做法是预处理:用 apply() 统一规整为 list,并把空值转为空 list []:
df['col'] = df['col'].apply(lambda x: [] if pd.isna(x) else (x if isinstance(x, list) else [x]))- 再执行
df.explode('col').dropna(subset=['col'])清除爆炸后仍为空的行 - 注意:
dropna()必须指定subset,否则可能误删其他列的 NaN
性能敏感时别在大表上链式 apply + explode
对千万级 DataFrame,df['col'].apply(...).explode(...) 是两轮遍历,且 apply 是 Python 层循环,速度慢。如果原始数据来自 JSON/Parquet,优先考虑在读取阶段就展平。
替代方案:
- 用
pd.json_normalize(data, record_path='col', meta=['id', 'name'])直接从嵌套 JSON 构建扁平表 - 如果已加载为 df,且
col是 list of dict,用df.explode('col').pipe(lambda x: pd.concat([x.drop('col', axis=1), pd.json_normalize(x['col'])], axis=1))减少中间对象 - 避免反复
assign+explode,尽量一次性完成结构转换
真正容易被忽略的是:explode 后的索引默认保留原 index(可能重复),如果后续要 merge 或 groupby,记得用 reset_index(drop=True) 重置,否则行为可能不符合直觉。










