
pytorch训练过程中测试准确率长时间不变,本质是离散精度限制所致:当测试集样本量固定(如113个),准确率最小可变单位为1/n ≈ 0.0088,微小预测变化无法反映在四舍五入后的显示值中。
在深度学习实践中,观察到测试准确率在多个连续epoch中“停滞不变”(如您日志中从Epoch 4到Epoch 15稳定在0.8584,后续又在0.8673、0.8761等平台期停留数十轮),常被误认为模型收敛异常或训练失效。但实际这很可能是准确率的固有离散性(discrete resolution) 导致的正常现象,而非代码缺陷或模型问题。
? 根本原因:准确率是离散指标,非连续变量
准确率定义为:
[
\text{Accuracy} = \frac{\text{正确预测样本数}}{\text{测试集总样本数}} = \frac{k}{N}, \quad k \in {0,1,\dots,N}
]
因此其理论最小变化步长为 ( \frac{1}{N} )。
从您的混淆矩阵可验证测试集规模:
[[46 1 15] → 第0类共62 [16 7 4] → 第1类共27 [ 2 2 20]] → 第2类共24 Total = 62 + 27 + 24 = 113
故 ( \frac{1}{113} \approx 0.00885 )。而您打印的准确率保留4位小数(如 0.8584),恰好与该分辨率一致——只要正确预测数未增减1个以上,显示值就不会改变。
例如:
- 当前正确数 = ( 0.8584 \times 113 \approx 97 )(实际97/113 ≈ 0.8584)
- 下一可能值 = 98/113 ≈ 0.8673(正是您日志中出现的下一个平台)
- 再下一值 = 99/113 ≈ 0.8761
这完全匹配您的输出序列:0.8584 → 0.8673 → 0.8761 → 0.8850 → ... —— 每次跃迁都对应整数级正确样本数的提升。
✅ 验证方法(推荐加入调试)
在 test() 函数中添加一行,输出原始正确数与总数:
correct = sum(torch.tensor(all_preds) == torch.tensor(all_targets))
print(f"Epoch {epoch}: Test Correct/Total = {correct}/{len(all_targets)} ({correct/len(all_targets):.4f})")您将看到 correct 值在多数epoch中确实保持整数恒定(如97→98→99),直观印证离散性。
⚠️ 注意事项与最佳实践
- 勿仅依赖准确率判断收敛:尤其在类别不平衡或小测试集时,准确率敏感度低。建议同步监控测试损失(连续值)、F1-score、或每个类别的精确率/召回率。
- 避免过早终止训练:平台期≠收敛。损失仍在下降(如您日志中 test_loss 从 0.9916 降至 0.4208),说明模型仍在优化决策边界,只是尚未突破下一个准确率台阶。
- 打印精度可调:若需观察细微变化,改用更高精度(如 :.6f)或直接输出 correct/total 分数形式。
- 线性网络限制:您明确要求仅用线性层(无激活函数),这本身会限制模型表达能力。若任务复杂度高,即使准确率“卡住”,也可能反映模型容量瓶颈——此时应检查数据是否线性可分,或考虑增加隐藏层维度(如 nn.Linear(50, 100))而非更换激活函数。
? 总结
测试准确率长时间不变,大概率不是bug,而是小规模测试集下准确率固有的离散特性所致。理解 1/N 分辨率原理,能帮助您更理性解读训练曲线、避免误判模型性能,并将关注点转向更鲁棒的评估指标(如损失值、置信度校准、混淆矩阵动态变化)。真正的收敛应由验证损失平稳+准确率达到预期平台+无过拟合迹象共同判定,而非单一数值的“跳变”。
# ✅ 推荐的调试增强版 test() 片段(替换原函数)
def test(dataloader, model, loss_fn):
model.eval()
all_preds, all_targets = [], []
test_loss = 0.0
with torch.no_grad():
for X, y in dataloader:
pred = model(X)
test_loss += loss_fn(pred, y.long()).item()
all_preds.extend(pred.argmax(1).cpu().numpy())
all_targets.extend(y.cpu().numpy())
test_loss /= len(dataloader)
correct = sum(np.array(all_preds) == np.array(all_targets))
total = len(all_targets)
accuracy = correct / total
confusion_mat = confusion_matrix(all_targets, all_preds)
return test_loss, accuracy, confusion_mat, (correct, total)










