文本分类关键在于数据质量、中文分词、特征向量化与合理评估;需用jieba分词+停用词过滤,Tfidf或BERT向量化,LogisticRegression建模,并关注F1值与混淆矩阵。

文本分类是数据分析中很常见的任务,比如判断一条评论是正面还是负面、识别邮件是否为垃圾邮件、给新闻打上“体育”“财经”“娱乐”等标签。用 Python 做这件事并不难,关键是理清流程、选对工具、避开常见坑。
准备数据:格式要干净,标注要明确
文本分类效果好不好,七成取决于数据质量。你需要一个带标签的文本集合,例如 CSV 文件,至少包含两列:text(原始文本)和 label(类别名或数字编号)。中文文本特别要注意编码统一(推荐 UTF-8),并提前清理明显噪声——比如大段空格、乱码符号、重复标点、广告水印等。
小建议:
- 用
pandas.read_csv(..., encoding='utf-8')读取,避免中文乱码 - 用
df.dropna(subset=['text', 'label'])删掉缺失文本或标签的行 - 检查标签分布:
df['label'].value_counts(),如果某类样本太少(比如不到总数 5%),后续可能需要过采样或合并类别
文本预处理:中文不能直接套英文那一套
英文常用空格切词,但中文没有天然分隔符,必须分词。别直接用 str.split(),那会把“人工智能”切成“人”“工”“智”“能”,完全破坏语义。
立即学习“Python免费学习笔记(深入)”;
推荐用 jieba 分词,并搭配停用词过滤:
- 安装:
pip install jieba - 基础分词:
import jieba; words = list(jieba.cut(text)) - 加载停用词表(可从 GitHub 找开源中文停用词表,如哈工大或百度停用词),过滤掉“的”“了”“在”“是”这类高频无意义词
- 可选增强:统一繁体转简体(用
opencc)、去除数字/英文(视任务而定)、保留长度 ≥2 的词(去掉单字干扰)
特征向量化:从文字变数字,选对方法很关键
机器学习模型只认数字,得把分词后的文本转成向量。中文场景下,两个主流选择:
本书是全面讲述PHP与MySQL的经典之作,书中不但全面介绍了两种技术的核心特性,还讲解了如何高效地结合这两种技术构建健壮的数据驱动的应用程序。本书涵盖了两种技术新版本中出现的最新特性,书中大量实际的示例和深入的分析均来自于作者在这方面多年的专业经验,可用于解决开发者在实际中所面临的各种挑战。 本书内容全面深入,适合各层次PHP和MySQL开发人员阅读,既是优秀的学习教程,也可用作参考手册。
- TfidfVectorizer:适合中小规模数据(几千到几万条),兼顾词频与文档稀有度。用法简单,配合 jieba 自定义分词器即可
-
预训练词向量 + 平均池化:比如用
hanlp或sentence-transformers加载中文 BERT 模型(如uer/roberta-base-finetuned-jd-binary-chinese),把每条文本转成 768 维向量。适合更复杂语义任务,但更吃内存
注意:不要用 CountVectorizer 简单统计词频,它没考虑词的重要性,在中文里容易被虚词主导。
建模与评估:别只看准确率
模型不是越复杂越好。初学者建议从 sklearn 的 LogisticRegression 或 RandomForestClassifier 入手,训练快、解释性强、不容易过拟合。
评估时一定要分训练集和测试集(用 train_test_split),并且关注:
- 混淆矩阵(
confusion_matrix):看清哪类容易被误判 - 各类别的精确率、召回率、F1 值(
classification_report):尤其当类别不均衡时,准确率会严重失真 - 交叉验证(
cross_val_score):确认模型稳定性,避免偶然结果
如果效果不理想,优先检查数据和预处理,而不是立刻换深度学习模型。
基本上就这些。跑通一遍后,你会清楚每个环节的作用和可调参数。文本分类不复杂,但容易忽略细节——比如中文分词不准、停用词没过滤、测试集混入训练逻辑。动手试一次,比看十篇理论都管用。









