训练自回归语言模型的关键在于稳住训练动态、控制信息泄露、对齐真实生成逻辑,需严守词表对齐、学习率warmup、梯度控制与生成式评估四大核心细节。

训练自回归语言模型(如GPT类模型)的核心不在于堆参数,而在于稳住训练动态、控制信息泄露、对齐真实生成逻辑。下面这些细节常被教程忽略,但直接决定收敛速度、生成质量与显存效率。
词表与输入对齐:别让padding破坏自回归性
自回归本质是“用前面所有token预测下一个”,所以训练时必须确保每个位置只能看到其左侧上下文。常见错误是:在batch内做统一长度截断+padding后,未屏蔽padding位置的loss贡献,导致模型从[PAD]学到了虚假依赖。
- 始终使用causal mask(上三角mask为0),PyTorch中可用
torch.nn.TransformerDecoder的is_causal=True或手动构建 - 计算loss时,跳过所有padding token对应位置——不是简单用
ignore_index,而是对每个样本单独mask掉其实际padding索引(尤其当batch内序列长度差异大时) - 词表设计建议保留[BOS](非必需)但必须有[EOS];训练时将[EOS]作为目标label的最后一个有效token,不预测它之后的内容
学习率与warmup:小步快跑比猛踩油门更稳
自回归模型对初始梯度极敏感,尤其在低数据量或小模型上,lr稍高就易发散。标准的线性warmup(如500步)常不够,需结合序列长度和batch size动态调整。
- warmup步数建议设为
max(500, total_tokens_seen // (batch_size × seq_len) × 0.1),确保前10%训练步覆盖足够多token模式 - 峰值lr推荐按
6e-4 / sqrt(d_model)粗估(如d_model=768 → lr≈2.2e-4),再根据loss曲线微调:若前1k步loss下降慢且震荡小,可略提lr;若loss突升或nan,立即降为原1/2 - 不用step decay,改用cosine decay with restarts(周期10k–50k步),能更好跳出局部最优
梯度控制:防爆炸、保信息、省显存
长序列+大模型下,梯度norm波动剧烈,单纯clip norm易削掉有用信号。关键在分层处理+梯度检查点协同。
立即学习“Python免费学习笔记(深入)”;
- 梯度裁剪用
torch.nn.utils.clip_grad_norm_(model.parameters(), max_norm=1.0, error_if_nonfinite=True),设error_if_nonfinite=True早发现nan - 启用gradient checkpointing时,只对transformer block内部启用(
torch.utils.checkpoint.checkpoint包裹attn+ffn),避免在embedding或lm-head处checkpoint导致反向传播断裂 - 每100步打印一次各层梯度均值(
param.grad.abs().mean().item()),若底层梯度比顶层小10倍以上,说明信息未有效回传,需检查残差连接或初始化
评估与早停:用生成式指标代替困惑度幻觉
验证集perplexity(PPL)容易虚低——尤其当验证集分布偏简单或含大量重复短句时。必须引入轻量生成测试。
- 每个epoch末,用当前模型生成100条长度≥32的文本(top-k=50, temperature=0.8),人工抽检是否出现无意义重复(如“the the the”)、主题漂移、语法断裂
- 自动指标只用n-gram重复率(n=3,4)和prompt-consistency score(给定同一prompt多次生成,计算句子嵌入余弦相似度均值),二者同时恶化即触发早停
- 不保存最低PPL模型,改保存生成稳定性最高的checkpoint(即最近3次eval中重复率方差最小的)
基本上就这些。没有银弹,但守住mask、warmup、梯度、评估这四条线,90%的训练失败都能提前拦截。










