
本文详解如何正确嵌套循环结构,确保后续计算(如模型训练与r²评估)对前一循环生成的每个随机数独立执行,避免仅使用最后一个值的常见缩进错误。
本文详解如何正确嵌套循环结构,确保后续计算(如模型训练与r²评估)对前一循环生成的每个随机数独立执行,避免仅使用最后一个值的常见缩进错误。
在您的原始代码中,问题核心在于作用域与缩进逻辑错误:第一个 for 循环仅执行了 randint() 生成和打印操作,而后续的模型构建、训练、预测及 R² 计算代码未被包含在该循环内,导致它们仅在循环结束后执行一次——且此时 value 已固定为最后一次迭代的值(即 35)。
要让每个随机数都触发一次完整的建模与评估流程,必须将全部计算逻辑整体缩进,使其成为外层循环的主体部分。以下是修正后的专业级实现:
from random import seed, randint
from sklearn.model_selection import train_test_split
from sklearn.ensemble import GradientBoostingRegressor, RandomForestRegressor
from sklearn.svm import SVR
from sklearn.preprocessing import StandardScaler
from sklearn.pipeline import make_pipeline
from sklearn.ensemble import StackingRegressor
# 设置全局随机种子(控制 randint 行为)
seed(4)
# 存储每次运行的 R² 结果(可选:便于后续分析)
r2_scores = []
for _ in range(20):
n = randint(0, 100) # 使用更清晰的变量名 n 代替 value
print(n, end=', ')
# ✅ 关键:以下所有代码均属于当前循环体
X_train, X_test, y_train, y_test = train_test_split(
df3_X1, df3_Y1,
test_size=0.25,
random_state=n
)
params = {
'n_estimators': 500,
'max_depth': 4,
'min_samples_split': 5,
'learning_rate': 0.01,
'loss': 'ls'
}
estimators = [
('svr', make_pipeline(StandardScaler(), SVR(kernel='rbf', C=0.6))),
('gb', GradientBoostingRegressor(random_state=0))
]
stack = StackingRegressor(
estimators=estimators,
final_estimator=RandomForestRegressor(n_estimators=100, random_state=0)
)
Final_model = stack.fit(X_train, y_train)
predictions = Final_model.predict(X_test)
y_bar = y_test.mean()
ss_tot = ((y_test - y_bar) ** 2).sum()
ss_res = ((y_test - predictions) ** 2).sum()
r2_score_val = 1 - (ss_res / ss_tot) # 避免与 sklearn.metrics.r2_score 同名冲突
print(f" → r2_score = {r2_score_val:.6f}")
r2_scores.append(r2_score_val)
print('\nThe for loop is complete!')
print(f"R² scores summary: min={min(r2_scores):.4f}, max={max(r2_scores):.4f}, mean={sum(r2_scores)/len(r2_scores):.4f}")✅ 关键修正说明:
- 所有建模、分割、拟合、预测及指标计算代码均统一缩进至 for _ in range(20): 下,确保每轮迭代独立执行;
- 将 value 重命名为 n,语义更贴合其作为 random_state 的用途;
- 添加 r2_scores 列表收集全部结果,支持统计分析;
- 使用 f-string 格式化输出,提升可读性与精度控制;
- 显式添加换行符 \n 和汇总统计,增强脚本实用性。
⚠️ 注意事项:
立即学习“Python免费学习笔记(深入)”;
- train_test_split 中 random_state=n 保证每次数据划分可复现,但模型内部(如 GradientBoostingRegressor)若未显式设 random_state,仍可能引入额外随机性;建议统一设置(如 GradientBoostingRegressor(random_state=n))以实现完全可控实验;
- 若 df3_X1/df3_Y1 数据量小或噪声大,可能出现负 R²(如您输出中的 -9.85),这表示模型表现劣于简单均值预测,属正常数学现象,需结合业务目标判断是否需调参或更换特征;
- 频繁重复训练模型开销较大,生产环境中建议加入进度条(如 tqdm)或日志记录。
通过此结构化重构,您即可高效获得 20 组独立随机种子下的完整评估结果,真正实现“基于前序循环输出持续驱动后续计算”的目标。










