多项式回归是通过引入特征高次项拟合非线性趋势的线性模型,关键在于合理选择次数以匹配数据节奏、避免过拟合与外推风险,并需标准化、交叉验证和残差诊断。

多项式回归是处理非线性趋势最直接、可解释性较强的方法之一。它本质仍是线性回归,但通过引入特征的高次项(如 x²、x³)让模型拟合曲线关系。关键不在于“多高次”,而在于是否匹配数据的真实变化节奏——过低欠拟合,过高易过拟合且泛化差。
一、明确问题与数据预处理
先确认目标变量 y 是否随某个特征 x 呈现明显弯曲趋势(如先升后降、加速增长等)。可用散点图快速判断:
plt.scatter(x, y); plt.show()
若趋势近似抛物线或S形局部,多项式回归就值得尝试。
注意:x 通常需中心化或标准化(尤其高阶时),避免 xⁿ 数值爆炸导致数值不稳定。scikit-learn 的 PolynomialFeatures 默认不缩放,建议配合 StandardScaler 使用。
二、构造多项式特征并建模
用 PolynomialFeatures 自动生成幂次组合(如 degree=2 时生成 [1, x, x²]),再传给 LinearRegression 拟合:
- 设定合理 degree:从 2 开始尝试,结合交叉验证(如 cross_val_score)选最优;degree=3 已覆盖多数单峰/单谷趋势
- 避免手动拼接数组(如 np.column_stack([x, x**2])),用 Pipeline 可自动衔接缩放→多项式→回归,防止数据泄露
- 若含多个输入特征(如 x₁, x₂),degree=2 会生成 x₁²、x₂²、x₁x₂ 等交互项,注意维度爆炸——此时优先考虑是否真需全交互
三、评估与诊断要点
不能只看 R²:高次多项式常在训练集上 R² 接近 1,但测试集大幅下降。重点检查:
- 残差图:预测值 vs 残差,应呈随机散点,无明显曲线模式(否则说明 degree 不足或需其他函数形式)
- 系数显著性:statsmodels 可输出 p 值,观察 x²、x³ 项是否显著;不显著的高次项建议剔除
- 外推风险:多项式在训练范围外极易发散(如 x→∞ 时 x⁴→∞),慎用于远离历史区间的预测
四、实用技巧与替代提醒
多项式回归不是万能解。遇到以下情况,换方法更稳妥:
立即学习“Python免费学习笔记(深入)”;
- 趋势有明确物理含义(如指数衰减、对数饱和),直接用对应函数变换(log(y)~x 或 y~log(x))更合理
- 数据存在强周期性(如季节波动),加傅里叶项或用时间序列模型(如 Prophet)更合适
- 样本量小但特征多,Lasso 或 Ridge 回归配合多项式可防过拟合,比普通多项式更鲁棒
基本上就这些。多项式回归门槛低、上手快,但成败在于 degree 判断和边界意识——拟合得再漂亮,外推错一步,结果就不可信。










