Python文本分类核心在于扎实的文本清洗、特征表达和数据平衡三步。需统一大小写、去噪声、分词、去停用词(慎删否定词),再用Count/Tfidf/预训练向量转化,优先Tfidf+逻辑回归验证baseline,注意测试集不可参与fit,类别不均衡时用class_weight或SMOTE。

Python做文本分类,核心是把文字转成机器能算的数字特征,再用模型学规律。关键不在模型多炫,而在文本清洗、特征表达和数据平衡这三步是否扎实。
文本预处理:别跳过这些“脏活”
原始文本常带噪声,直接喂给模型反而拖后腿。重点做这几件事:
- 统一小写 + 去除多余空格和换行
- 去掉HTML标签、URL、邮箱、特殊符号(保留标点如句号问号,有时对情感判断有用)
- 分词(中文用jieba或pkuseg,英文用split或nltk.word_tokenize)
- 去停用词(但别一刀切——比如“没”“不”在情感分析里很关键)
- 可选:词形还原(lemmatization)或词干提取(stemming),英文更常用
特征工程:从词到向量,选对方法比调参更重要
文本不能直接计算,得映射成向量。常见方式有三种,适用场景不同:
- Count Vectorizer:统计词频,适合小数据、规则较明确的任务(如垃圾邮件识别)
- TfidfVectorizer:加权词频-逆文档频率,抑制高频无意义词(如“的”“and”),大多数入门任务首选
- 预训练词向量(如Word2Vec、FastText、BERT嵌入):适合数据少但语义要求高(如客服意图分类),需额外加载模型,计算开销大些
注意:Tfidf默认只取前10000个高频词,如果类别差异靠冷门词体现,记得调大max_features或用min_df/max_df精细控制。
立即学习“Python免费学习笔记(深入)”;
模型选择与训练:先跑通baseline,再优化
别一上来就上BERT。先用简单模型验证流程是否通、数据是否有价值:
- 逻辑回归(LogisticRegression):速度快、可解释性强,Tfidf+LR在很多新闻分类、情感任务上效果不输复杂模型
- 朴素贝叶斯(MultinomialNB):对短文本、小样本友好,比如微博情绪分类
- SVM:适合中等规模数据,配合Tfidf效果稳定,但训练慢
- LightGBM/XGBoost:把Tfidf向量当特征输入,适合加入其他结构化特征(如文本长度、是否含感叹号等)
训练前务必划分train/val/test,用stratify保证各类比例一致;评估别只看准确率,尤其类别不均衡时,重点看precision、recall、f1-score(sklearn.metrics.classification_report一键输出)。
实战小技巧:省时间也避坑
几个真实项目中反复踩过的点:
- 中文分词后别急着丢掉单字——“杀”“崩”“绝”在游戏评论里可能是关键情感词
- 测试集一定不能参与任何预处理(如Tfidf的fit),否则会泄露信息,用fit_transform(train) + transform(test)
- 类别严重不均衡?试试SMOTE(仅适用于数值特征,需先降维或用TFIDF+PCA)、类别权重class_weight=’balanced’,或改用Focal Loss(PyTorch/TensorFlow)
- 部署时保存vectorizer和model一起(joblib或pickle),顺序不能错:先transform再predict
基本上就这些。流程不复杂,但每步都容易忽略细节。跑通一个Tfidf+LR baseline,再逐步替换组件,比一上来调Transformer参数实在得多。










