手写数字识别需注重数据预处理、模型结构、训练配置和评估调试四大细节:归一化至[0,1]并增加通道维;采用轻量CNN(两卷积块+Flatten+Dense);用Adam优化器、sparse_categorical_crossentropy损失、batch_size=32/64;测试准确率应达98.5%+,否则检查标签编码、预测方式及训练轮次。

手写数字识别是深度学习入门最经典的任务,用 Python 和 TensorFlow/Keras 实现起来不难,但训练效果好坏,关键在细节。
数据预处理:别跳过归一化和形状调整
原始 MNIST 图像是 28×28 的 uint8 灰度图(0–255),直接喂给模型容易梯度爆炸或收敛慢。必须做两件事:
- 把像素值除以 255.0,缩放到 [0, 1] 浮点范围;
- 为适配大多数网络输入,把 shape 从 (28, 28) 扩展成 (28, 28, 1),即增加通道维(灰度图单通道)。
Keras 自带的 mnist.load_data() 返回的是整数数组,这两步通常写成:
x_train = x_train.astype('float32') / 255.0x_train = x_train.reshape(-1, 28, 28, 1)
模型结构:小而够用,别盲目堆层
对 MNIST 这类简单图像,一个轻量 CNN 就足够了。典型结构是:
立即学习“Python免费学习笔记(深入)”;
- 两个卷积块:每块含 Conv2D + ReLU + MaxPooling2D;
- 接一层 Flatten,再加 1–2 个全连接层(Dense),最后一层 10 个单元 + softmax;
- 避免使用过深网络或大 kernel(如 7×7),容易过拟合且无增益。
示例关键层(TensorFlow 2.x):
model.add(MaxPooling2D((2,2)))
model.add(Flatten())
model.add(Dense(128, activation='relu'))
model.add(Dense(10, activation='softmax'))
训练配置:优化器、损失与 batch_size 要匹配
初学者常忽略这些参数间的协同关系:
- 推荐用 Adam 优化器(默认 lr=0.001),收敛稳、调参少;
- 多分类必须用 sparse_categorical_crossentropy(标签是整数)或 categorical_crossentropy(标签需 one-hot 编码);
- batch_size 设 32 或 64 较平衡;太小训练抖动,太大内存吃紧且泛化略差。
验证集建议留 10%(Keras fit 中用 validation_split=0.1),方便监控过拟合。
评估与调试:看准测试准确率,也看训练过程
最终在 test 数据上达到 98.5%+ 是正常水平。如果卡在 95% 以下,优先检查:
- 标签是否没做 one-hot 或没设 sparse 损失函数(会导致训练无效);
- 是否忘了在预测前调用 model.predict() 并取 argmax,而不是直接输出概率;
- 训练 epoch 是否太少(一般 10–20 足够),或学习率太高导致震荡。
用 model.evaluate(x_test, y_test) 获取真实测试指标,别只信训练日志里的 acc。
基本上就这些。模型不复杂,但每个环节的细节都影响结果——归一化、维度、损失函数、验证方式,缺一不可。










