最省事的是pickle,但仅限同版本Python可信环境;跨语言或配置用json(需处理特有类型);大体积数据选msgpack;复杂函数用cloudpickle。

用 pickle 保存 Python 原生对象最省事,但别跨语言或跨版本读
pickle 是 Python 自带的序列化模块,能直接存 dict、list、自定义类实例(只要没含不可序列化属性,比如文件句柄、lambda 函数)。它速度快、保留类型和引用关系,适合纯 Python 环境下的临时缓存或进程间传递。
常见错误是把 pickle 文件发给其他语言程序读,或者用 Python 3.8 的 pickle 协议保存后,在 Python 3.6 上加载失败——协议版本不兼容会直接报 ValueError: unsupported pickle protocol。
实操建议:
- 只在可信的 Python 环境内使用,不用于网络传输或用户输入场景(反序列化任意
pickle数据有远程代码执行风险) - 显式指定协议版本,例如
pickle.dump(obj, f, protocol=pickle.HIGHEST_PROTOCOL),避免默认用低版本协议限制功能 - 若对象含
__slots__、__getstate__等定制逻辑,需确认其行为符合预期,否则可能漏字段
存配置或跨语言数据优先选 json,但得先处理 Python 特有类型
json 格式通用、可读性强、几乎所有语言都支持,适合保存配置、API 响应、前端交互数据。但它只认基本类型:dict、list、str、int、float、bool、None。遇到 datetime、set、自定义类实例就会报 TypeError: Object of type X is not JSON serializable。
立即学习“Python免费学习笔记(深入)”;
实操建议:
- 用
default参数自定义转换逻辑,例如把datetime转成 ISO 字符串:json.dump(obj, f, default=lambda x: x.isoformat() if hasattr(x, 'isoformat') else str(x)) - 避免在
default里做复杂判断或递归处理,容易掩盖真实类型错误;更稳妥的做法是提前把对象“扁平化”为 JSON 友好结构 - 注意
json不保留顺序(Python 3.7+dict有序,但 JSON 规范本身不保证),也不区分tuple和list(都转成数组)
需要压缩或大体积数据时,msgpack 比 json 更紧凑且快
msgpack 是二进制格式,体积通常比 JSON 小 30%–50%,解析速度也更快,同时支持更多原生类型(如 bytes、datetime,需开启 strict_map_key=False 或用 ext 类型扩展)。它不像 pickle 那样危险,但 Python 外的支持程度不如 JSON(比如某些嵌入式环境或旧版 JS 库可能没 msgpack 解析器)。
实操建议:
- 安装后直接用:
import msgpack; msgpack.pack(obj, f),读取用msgpack.unpack(f) - 如果数据含
numpy数组,msgpack默认不支持,得配合msgpack-numpy扩展,否则会报TypeError: can't serialize - 写入时加
use_bin_type=True,否则 Python 3 下bytes可能被当str处理,导致读取错乱
保存带方法或状态的类实例,cloudpickle 比 pickle 更可靠
标准 pickle 对定义在交互式环境(如 Jupyter、IPython)或局部作用域里的函数/类会失败,报 AttributeError: Can't pickle local object。cloudpickle 专门解决这个问题,能把 lambda、闭包、动态生成的类等一并序列化。
实操建议:
- 安装后替换导入:
import cloudpickle as pickle,其余用法和标准pickle一致 - 它仍不能序列化 C 扩展对象(如某些
sqlite3.Connection)、打开的文件、线程锁等资源型对象,这类必须手动清理或替换为可序列化的占位符 - 跨机器加载时,确保目标环境有完全相同的依赖版本,否则反序列化可能因找不到模块路径而失败
真正麻烦的不是选哪种格式,而是混用时没统一处理边界:比如用 json 存时间却忘了转字符串,或用 pickle 传对象到另一台机器却发现 Python 版本差了一点点。这些细节不显眼,但出问题时往往卡半天。











