0

0

DeepSeek与Kubernetes(K8s)结合,弹性部署AI推理服务

畫卷琴夢

畫卷琴夢

发布时间:2026-02-13 15:56:46

|

665人浏览过

|

来源于php中文网

原创

需构建轻量化推理镜像、定义gpu感知deployment与service、配置基于qps/gpu利用率的hpa、启用ingress+tls安全暴露、实施模型热更新与灰度发布。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

deepseek与kubernetes(k8s)结合,弹性部署ai推理服务

如果您希望将DeepSeek大语言模型集成到Kubernetes集群中,并实现按需扩缩容的AI推理服务部署,则需要解决模型加载、资源隔离、服务暴露与自动伸缩等关键问题。以下是实现该目标的具体步骤:

一、构建轻量化DeepSeek推理镜像

为适配K8s调度与快速启动,需将DeepSeek模型与推理框架封装为体积可控、启动迅速的容器镜像。推荐使用vLLM或llama.cpp作为后端运行时,以降低GPU显存占用并提升吞吐。

1、基于Ubuntu 22.04基础镜像,安装CUDA 12.1与PyTorch 2.3+cu121。

2、克隆DeepSeek官方Hugging Face仓库,使用transformers加载模型权重,或直接下载GGUF格式量化模型文件。

3、集成vLLM服务入口,配置--model参数指向本地模型路径,启用--tensor-parallel-size=1(单卡)或按GPU数量设置。

4、添加健康检查端点(如/health)与就绪探针支持,确保K8s能准确判断容器状态。

5、执行docker build -t deepseek-vllm:1.0 .,生成镜像并推送至私有Harbor或ECR registry。

二、定义GPU感知型Deployment与Service

Kubernetes默认不识别GPU资源,需通过Device Plugin注册NVIDIA GPU,并在Pod模板中显式声明gpu资源请求,确保调度器将Pod绑定至含GPU节点。

1、确认nvidia-device-plugin-daemonset已在集群中运行,且kubectl get nodes -o wide显示GPU容量(如nvidia.com/gpu: 1)。

2、编写deployment.yaml,spec.containers[].resources.limits中设置nvidia.com/gpu: 1,并添加securityContext.privileged: false与capabilities.drop: ["ALL"]提升安全性。

3、为容器挂载空目录volume用于缓存KV cache,避免重复加载模型权重造成延迟波动。

4、定义ClusterIP类型的Service,端口映射至容器8000端口(vLLM默认HTTP API端口),启用sessionAffinity: ClientIP保障长连接稳定性。

5、添加annotation:nvidia.com/gpu.product: "A10"(若集群混用GPU型号,需精确匹配)。

三、配置HPA基于QPS或GPU利用率触发扩缩容

传统CPU/Memory指标无法反映AI推理负载真实压力,需采集自定义指标(如每秒请求数QPS或GPU SM Utilization),驱动HorizontalPodAutoscaler动态调整副本数。

1、部署Prometheus + node-exporter + dcgm-exporter,后者提供DCGM_DCGM_FI_DEV_GPU_UTIL等GPU监控指标。

2、在Prometheus中配置rule:记录vLLM metrics_api_requests_total速率(rate(vllm_request_count_total[1m]))。

笔灵AI论文写作
笔灵AI论文写作

免费生成毕业论文、课题论文、千字大纲,几万字专业初稿!

下载

3、创建PrometheusAdapter,将上述指标暴露为custom.metrics.k8s.io/v1beta1 API供HPA调用。

4、编写hpa.yaml,targetAverageValue设为15 QPS,minReplicas: 1,maxReplicas: 8,scaleTargetRef指向前述Deployment。

5、验证kubectl get hpa输出TARGETS列是否显示实际QPS值,确认HPA已关联自定义指标。

四、启用Ingress与TLS终止实现外部安全访问

为使外部客户端(如Web前端或REST客户端)稳定调用推理API,需通过Ingress统一入口暴露服务,并强制HTTPS加密传输,防止模型请求被中间人窃取或篡改。

1、部署nginx-ingress-controller或ingress-nginx,确保其Pod运行于具备公网IP的节点或云LB后端。

2、申请Let’s Encrypt证书,使用cert-manager签发wildcard域名证书(如*.ai.example.com)。

3、编写ingress.yaml,host字段填写推理服务域名(e.g., infer.deepseek.example.com),path: /v1/completions匹配vLLM OpenAI兼容接口路径。

4、在ingress.spec.tls中引用上一步生成的Secret名称,启用TLS termination,backend.service.port.number设为80。

5、添加nginx.ingress.kubernetes.io/proxy-body-size: "50m"注解,允许上传较大prompt文本或base64编码图像输入。

五、实施模型热更新与灰度发布策略

避免全量重启导致服务中断,需支持新模型版本在不中断流量前提下逐步替换旧实例,同时保留回滚能力。

1、为每个模型版本打独立镜像Tag(如deepseek-vllm:1.0-r1、deepseek-vllm:1.0-r2),并在Deployment中通过image字段指定。

2、使用Kubernetes原生RollingUpdate策略,设置maxSurge: 25%与maxUnavailable: 0,确保升级期间始终有可用副本。

3、在Service前部署Istio VirtualService,按header(x-model-version: v1.0-r2)或权重(70%/30%)分流请求至不同Deployment。

4、编写preStop lifecycle hook,在容器终止前执行curl -X POST http://localhost:8000/v1/model/unload,主动卸载模型释放显存。

5、利用kubectl rollout history与kubectl rollout undo --to-revision=1实现秒级回滚至任一历史版本。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
pixiv网页版官网登录与阅读指南_pixiv官网直达入口与在线访问方法
pixiv网页版官网登录与阅读指南_pixiv官网直达入口与在线访问方法

本专题系统整理pixiv网页版官网入口及登录访问方式,涵盖官网登录页面直达路径、在线阅读入口及快速进入方法说明,帮助用户高效找到pixiv官方网站,实现便捷、安全的网页端浏览与账号登录体验。

23

2026.02.13

微博网页版主页入口与登录指南_官方网页端快速访问方法
微博网页版主页入口与登录指南_官方网页端快速访问方法

本专题系统整理微博网页版官方入口及网页端登录方式,涵盖首页直达地址、账号登录流程与常见访问问题说明,帮助用户快速找到微博官网主页,实现便捷、安全的网页端登录与内容浏览体验。

11

2026.02.13

Flutter跨平台开发与状态管理实战
Flutter跨平台开发与状态管理实战

本专题围绕Flutter框架展开,系统讲解跨平台UI构建原理与状态管理方案。内容涵盖Widget生命周期、路由管理、Provider与Bloc状态管理模式、网络请求封装及性能优化技巧。通过实战项目演示,帮助开发者构建流畅、可维护的跨平台移动应用。

7

2026.02.13

TypeScript工程化开发与Vite构建优化实践
TypeScript工程化开发与Vite构建优化实践

本专题面向前端开发者,深入讲解 TypeScript 类型系统与大型项目结构设计方法,并结合 Vite 构建工具优化前端工程化流程。内容包括模块化设计、类型声明管理、代码分割、热更新原理以及构建性能调优。通过完整项目示例,帮助开发者提升代码可维护性与开发效率。

8

2026.02.13

Redis高可用架构与分布式缓存实战
Redis高可用架构与分布式缓存实战

本专题围绕 Redis 在高并发系统中的应用展开,系统讲解主从复制、哨兵机制、Cluster 集群模式及数据分片原理。内容涵盖缓存穿透与雪崩解决方案、分布式锁实现、热点数据优化及持久化策略。通过真实业务场景演示,帮助开发者构建高可用、可扩展的分布式缓存系统。

3

2026.02.13

c语言 数据类型
c语言 数据类型

本专题整合了c语言数据类型相关内容,阅读专题下面的文章了解更多详细内容。

26

2026.02.12

雨课堂网页版登录入口与使用指南_官方在线教学平台访问方法
雨课堂网页版登录入口与使用指南_官方在线教学平台访问方法

本专题系统整理雨课堂网页版官方入口及在线登录方式,涵盖账号登录流程、官方直连入口及平台访问方法说明,帮助师生用户快速进入雨课堂在线教学平台,实现便捷、高效的课程学习与教学管理体验。

9

2026.02.12

豆包AI网页版入口与智能创作指南_官方在线写作与图片生成使用方法
豆包AI网页版入口与智能创作指南_官方在线写作与图片生成使用方法

本专题汇总豆包AI官方网页版入口及在线使用方式,涵盖智能写作工具、图片生成体验入口和官网登录方法,帮助用户快速直达豆包AI平台,高效完成文本创作与AI生图任务,实现便捷智能创作体验。

181

2026.02.12

PostgreSQL性能优化与索引调优实战
PostgreSQL性能优化与索引调优实战

本专题面向后端开发与数据库工程师,深入讲解 PostgreSQL 查询优化原理与索引机制。内容包括执行计划分析、常见索引类型对比、慢查询优化策略、事务隔离级别以及高并发场景下的性能调优技巧。通过实战案例解析,帮助开发者提升数据库响应速度与系统稳定性。

14

2026.02.12

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
10分钟--Midjourney创作自己的漫画
10分钟--Midjourney创作自己的漫画

共1课时 | 0.1万人学习

Midjourney 关键词系列整合
Midjourney 关键词系列整合

共13课时 | 0.9万人学习

AI绘画教程
AI绘画教程

共2课时 | 0.2万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号