朴素贝叶斯文本分类核心是文本预处理、特征向量化、模型训练与评估四步;需清洗标准化文本、用Count/TfidfVectorizer转数字特征、选MultinomialNB并调alpha、用F1/混淆矩阵评估,且预处理与向量器必须复用训练对象。

用朴素贝叶斯做文本分类,核心是把文字转成能算概率的数字特征,再基于“每个词独立贡献类别倾向”这个假设做预测。流程不复杂,但每步处理不当容易掉分。
文本预处理:清洗+标准化
原始文本噪声多,得先理干净。去掉HTML标签、特殊符号、多余空格;转小写避免大小写误判;中文要分词(比如用jieba),英文可选是否去停用词和词干化(如running→run)。这步没做好,后面所有计算都跑偏。
- 英文示例:用re.sub(r'[^a-zA-Z\s]', '', text).lower()粗筛字符
- 中文示例:用jieba.lcut(text)分词后过滤掉单字或无意义词
- 统一保留字母+数字组合(如Python3、win10)可提升技术类文本识别效果
特征向量化:把词变成数字
朴素贝叶斯不吃原始文本,只认数字。常用两种方式:
- CountVectorizer:统计每个词在文档中出现次数,适合短文本或词频有区分度的场景
- TfidfVectorizer:不仅看频次,还降低高频通用词(如“的”“and”)权重,更适合长文档或多类别任务
- 注意设置max_features控制词表大小,避免稀疏矩阵爆炸;ngram_range=(1,2)可加入二元词组,捕捉简单搭配(如“机器学习”“深度神经”)
模型训练与调参:朴素贝叶斯不止一种
sklearn里有多个朴素贝叶斯变种,文本分类最常用的是MultinomialNB(适合非负整数特征,如词频或TF-IDF值)。如果用了TF-IDF输出浮点数,它也能处理。
立即学习“Python免费学习笔记(深入)”;
- 关键参数alpha是拉普拉斯平滑系数,默认1.0。数据少或词表大时可调小(如0.1)防过平滑;类别极度不均衡时可微调
- 不用刻意做特征选择——朴素贝叶斯本身对冗余词鲁棒,但若维度太高(>10万),可先用TfidfVectorizer的min_df/max_df过滤低频/超高频词
- 训练前记得用train_test_split分数据,别用全部数据拟合再评估
预测与评估:别只看准确率
文本分类常面临类别不均衡(比如90%是“正常”,10%是“垃圾邮件”),光看准确率会误导。重点看精确率、召回率、F1,尤其是少数类的指标。
- 用classification_report(y_true, y_pred)一键输出各指标
- 混淆矩阵能直观看出哪两类容易混(比如“体育”和“娱乐”新闻常被互错)
- 预测新文本时,确保预处理和向量化步骤完全复用训练时的对象(别重新fit!)
基本上就这些。朴素贝叶斯快、稳、可解释性强,特别适合基线模型或资源受限场景。真正难的不是算法本身,而是让文本特征真实反映语义意图。










