互信息(MI)是衡量特征与目标变量非线性依赖的过滤式方法,适用于分类与回归任务,但需注意样本量、离散化方式及冗余特征问题。

互信息(Mutual Information, MI)是衡量特征与目标变量之间非线性依赖关系的有力工具,特别适合处理类别型目标或非线性可分场景。它不假设线性关系,也不要求数据服从特定分布,比相关系数更鲁棒——但容易受样本量和离散化方式影响,用前得“调好味”。
互信息的本质与适用边界
互信息量化的是:知道某个特征X后,对目标Y的不确定性减少了多少。值越大,X携带的关于Y的信息越多。它天然支持分类任务(sklearn中mutual_info_classif),回归任务需用mutual_info_regression(内部自动对连续Y做分位数离散化)。注意:MI对小样本敏感,当训练集<500条时,估计值易偏高;特征若含大量唯一值(如ID、时间戳),需先清洗或转换,否则会虚高MI得分。
实操四步走:从计算到筛选
- 离散化要合理:对连续特征,不建议简单等宽分箱。优先用KBinsDiscretizer(strategy='quantile')保分布形态,或用决策树分箱(DecisionTreeClassifier(max_depth=1)拟合后取分割点)
- 统一编码再计算:类别型特征必须先用OrdinalEncoder或OneHotEncoder(MI本身兼容序数编码,无需one-hot);缺失值需提前填充(均值/众数/专用标记),不能留NaN
- 设定阈值有依据:不推荐固定截断(如MI>0.1)。建议按百分位数选前K个(如top 20%),或用置换检验(permutation)生成零分布,取p<0.05的临界值
- 警惕冗余特征:高MI特征间可能高度相关(如“月收入”和“年收入”)。筛选后建议加一步Spearman秩相关矩阵热力图,剔除两两|ρ|>0.8的冗余对
与卡方、F检验的对比选择
卡方检验只适用于双类别型变量,且要求期望频数≥5;F检验仅捕获线性关系,对“U型”“S型”依赖完全失效。而MI在三者中泛化性最强——但计算成本略高,尤其特征维数>1000时,建议先用方差阈值(VarianceThreshold)粗筛掉近似常量的特征,再算MI。
建模链路中的定位与配合
MI是典型的过滤式(Filter)方法,应放在数据预处理后期、模型训练前期。它不参与模型优化,因此可与任何算法搭配:比如用MI选15个特征后,再进LightGBM做递归特征消除(RFE),或输入到随机森林中看OOB重要性交叉验证。切记:不要把MI分数直接当模型特征权重用——它反映的是单变量判别力,不是模型内联合贡献。
立即学习“Python免费学习笔记(深入)”;
基本上就这些。用对了,MI是发现隐藏信号的探针;用糙了,就是制造虚假确定性的幻觉。关键在离散稳、样本足、去冗余、不越位。










