Python部署机器学习模型为API服务的核心是:封装模型为可调用接口、选用FastAPI等轻量Web框架、通过Docker容器化或直接运行;需持久化保存模型(如joblib、torch.save、saved_model)、编写带类型提示的推理接口、用uvicorn启动并测试,生产环境可结合gunicorn、Nginx和requirements.txt保障稳定。

用Python把训练好的机器学习模型部署成API服务,核心是:封装模型为可调用接口 + 选择轻量Web框架 + 容器化或直接运行。不需复杂运维,本地测试、生产上线都能快速落地。
1. 模型保存与加载(确保可复用)
训练完模型后,别只留 notebook。必须持久化为文件,方便后续加载。
- sklearn 模型推荐用 joblib(比 pickle 更高效,尤其对 numpy 数组友好):
joblib.dump(model, "model.pkl") → 加载:model = joblib.load("model.pkl") - PyTorch 模型保存结构+参数:
torch.save({"state_dict": model.state_dict(), "config": config}, "model.pth") - TensorFlow/Keras 推荐 saved_model 格式(跨平台兼容性好):
model.save("saved_model_dir")
2. 编写 Flask/FastAPI 推理接口(选一个,推荐 FastAPI)
FastAPI 性能高、自带文档、类型提示友好;Flask 更简单适合入门。以下以 FastAPI 为例:
- 安装:pip install fastapi uvicorn
- 新建 app.py,加载模型 + 定义 POST 接口:
from fastapi import FastAPI
import joblib
import numpy as np
app = FastAPI()
model = joblib.load("model.pkl") # 启动时加载一次
@app.post("/predict")
def predict(data: dict):
# 假设输入是 {"features": [1.2, 3.4, 0.8]}
X = np.array([data["features"]])
pred = model.predict(X).tolist()
return {"prediction": pred}
3. 启动服务 & 测试 API
终端运行:uvicorn app:app --reload --host 0.0.0.0:8000
立即学习“Python免费学习笔记(深入)”;
- --reload 开发时自动重载(上线关掉)
- 访问 http://localhost:8000/docs 查看自动生成的交互式文档
- 用 curl 或 Postman 测试:
curl -X POST http://localhost:8000/predict -H "Content-Type: application/json" -d '{"features": [5.1, 3.5, 1.4, 0.2]}'
4. 生产部署建议(小项目够用,大流量再升级)
不追求 K8s,先跑稳:
- 用 gunicorn + uvicorn 组合提升并发能力:
gunicorn -w 4 -k uvicorn.workers.UvicornWorker app:app - 加个 Nginx 反向代理(处理 HTTPS、负载、静态资源)
- 容器化(可选但推荐):
写个 Dockerfile,build 镜像后 docker run -p 8000:8000 your-model-api - 环境隔离:用 requirements.txt 锁定依赖版本,避免“在我机器上能跑”问题
基本上就这些。模型 API 部署不复杂但容易忽略细节——关键是模型加载一次、输入校验做全、错误返回清晰、日志留痕。跑通本地 → 封装 Docker → 上服务器,三步就能对外提供稳定推理服务。










