用scipy.sparse.coo_matrix而非字典,因其底层用row/col/data三数组高效支持运算;构造需去重、转csr/csc再计算;存盘优选save_npz;切片等操作务必用csr/csc格式。

为什么用 scipy.sparse.coo_matrix 而不是手写字典?
直接存成 {(i, j): value} 看似简单,但一碰矩阵运算就卡住——加法、乘法、转置、切片全得自己重写,还容易索引越界或重复键覆盖。而 coo_matrix 底层用三个平行数组(row, col, data)组织坐标,既保留稀疏性,又对接所有 scipy.sparse 算子。
实操建议:
立即学习“Python免费学习笔记(深入)”;
- 从字典构造时,先转成三元组列表:
[(i, j, v) for (i, j), v in my_dict.items()],再传给coo_matrix - 别用
dict直接赋值给coo_matrix.data——它只认np.ndarray,否则报TypeError: data type not understood - 构造后立刻调用
.tocsr()或.tocsc()再做计算,coo格式本身不支持索引和算术运算
coo_matrix 构造后报 “duplicate entries” 怎么办?
这是最常踩的坑:同一个 (i, j) 坐标出现多次,coo_matrix 默认不合并,而是静默保留所有项,后续转 csr 时会触发警告甚至结果错乱。
实操建议:
立即学习“Python免费学习笔记(深入)”;
- 构造前用
scipy.sparse.coo_matrix((data, (row, col)), shape=(m,n)).sum_duplicates()—— 注意必须显式调用.sum_duplicates() - 或者改用
scipy.sparse.dok_matrix增量构建(适合边读边插),它自动去重累加,最后再转coo或csr - 检查原始数据:用
collections.Counter(zip(row, col))快速定位重复坐标
存硬盘时选 npz 还是 pickle?
pickle 虽方便,但跨 Python 版本或机器可能反序列化失败;npz 是纯 NumPy 格式,稳定且可被其他语言(如 MATLAB、R)读取部分结构。
实操建议:
立即学习“Python免费学习笔记(深入)”;
- 用
scipy.sparse.save_npz("mat.npz", mat)存,scipy.sparse.load_npz("mat.npz")读——它自动保存格式信息(如csr还是coo) - 别手动存
mat.row/mat.col/mat.data到np.savez,丢失了shape和格式标识,加载后得自己重建对象 - 如果要压缩体积,
npz默认已用zlib压缩;pickle配protocol=5+compress_pickle才勉强追平,但牺牲兼容性
用 csr_matrix 做行切片比 coo 快多少?
coo_matrix[0, :] 是 O(nnz) 操作(遍历全部非零元),而 csr_matrix[0, :] 是 O(nnz_per_row),快一个数量级以上——尤其在宽矩阵(列数远大于行数)中差异明显。
实操建议:
立即学习“Python免费学习笔记(深入)”;
- 只要涉及任何切片、按行/列聚合、矩阵乘法,构造完立刻转
.tocsr()(行优先)或.tocsc()(列优先) - 别在循环里反复调用
.toarray()——哪怕只取一行,也会把整个稀疏结构转成稠密np.ndarray,内存爆炸 - 验证格式:打印
type(mat),别只看变量名,mat可能还是coo却误以为已优化
稀疏矩阵的“稀疏性”不是靠存储方式决定的,而是靠后续操作是否真正跳过零——格式选错,再多非零元也白搭。










