python文本去重需先明确粒度:按行(最快,用dict.fromkeys保序)、按句子(需清洗后切分)、按语义(用tf-idf或sentence-bert计算相似度);预处理须统一编码、清理不可见字符、过滤空行。

Python文本去重,核心在于明确“去重粒度”——是按行、按句子、按段落,还是按语义?不同场景需不同策略,没有万能解法,但有高性价比方案。
按行去重(最常用、最快)
适用于日志、列表、CSV行数据等结构化文本。利用 set 去重并保持原始顺序(Python 3.7+ dict 有序):
- 读取文件时用 dict.fromkeys(lines),自动去重且保序
- 避免直接用 list(set(lines)),会打乱顺序
- 注意行尾换行符:建议先 .rstrip('\n') 再处理,避免 'abc' 和 'abc\n' 被视为不同
按句子/分句去重(兼顾可读性)
适合新闻、报告等自然语言文本。先用 nltk.sent_tokenize 或正则(如 r'[。!?;]+ ')切分,再清洗(去空格、统一标点、忽略大小写)后去重:
- 清洗示例:s.strip().replace(' ', '').lower()
- 对中文,慎用简单正则;推荐 hanlp 或 pkuseg 辅助断句更准
- 保留原始句子格式(如首字母大写、末尾标点),仅清洗比对用的键
语义去重(去“意思重复”,非字面重复)
适用于摘要、评论、用户反馈等需理解含义的场景。不依赖完全匹配,而是计算文本相似度:
方科网络ERP图文店II版为仿代码站独立研发的网络版ERP销售程序。本本版本为方科网络ERP图文店版的简化版,去除了部分不同用的功能,使得系统更加精炼实用。考虑到图文店的特殊情况,本系统并未制作出入库功能,而是将销售作为重头,使用本系统,可以有效解决大型图文店员工多,换班数量多,订单混杂不清的情况。下单、取件、结算分别记录操作人员,真正做到订单全程跟踪!无限用户级别,不同的用户级别可以设置不同的价
立即学习“Python免费学习笔记(深入)”;
- 轻量级:用 TfidfVectorizer + cosine_similarity,适合千级文本
- 进阶方案:Sentence-BERT(如 all-MiniLM-L6-v2) 编码后算余弦距离,阈值设 0.85~0.95 可滤掉高度近义句
- 注意:语义去重开销大,务必先做预过滤(如长度太短、纯符号行直接剔除)
去重后保留关键信息(实用技巧)
单纯删重可能丢失上下文或权重。建议:
- 记录每条文本出现次数,用于后续加权或分析
- 合并重复项时附带原始位置(如文件名、行号),便于溯源
- 对长文本,可先提取关键词(jieba.analyse 或 KeyBERT),用关键词集合代替全文参与去重
不复杂但容易忽略:去重前务必统一编码(UTF-8)、处理不可见字符(\ufeff、\xa0)、过滤空行和空白行。这些细节常导致“明明一样却没去重”。









