0

0

DeepSeek开源模型本地部署指南(CPU/GPU版)

星降

星降

发布时间:2026-02-12 23:21:10

|

380人浏览过

|

来源于php中文网

原创

deepseek开源模型本地部署有四种路径:一、ollama一键部署,自动适配cpu/gpu;二、llama.cpp+gguf量化,纯cpu低内存运行;三、vllm框架,gpu高吞吐api服务;四、docker容器化,保障跨平台一致性。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

deepseek开源模型本地部署指南(cpu/gpu版)

如果您希望在本地环境中运行DeepSeek开源模型,但面临硬件适配、环境配置或推理启动失败等问题,则可能是由于依赖版本不匹配、模型权重加载异常或设备后端未正确指定所致。以下是完成DeepSeek开源模型本地部署的多种可行路径:

一、使用Ollama一键部署(支持CPU/GPU自动识别)

Ollama提供预编译二进制与模型仓库集成,可自动检测系统是否启用CUDA或ROCm,并在无GPU时回退至CPU推理。该方式无需手动安装PyTorch或transformers,适合快速验证模型基础能力。

1、访问官网https://ollama.com/download,下载对应操作系统的安装包并完成安装。

2、在终端中执行ollama list确认服务已启动,若提示未运行则执行ollama serve手动启动后台服务。

3、拉取DeepSeek官方支持的模型变体,例如执行ollama pull deepseek-coder:6.7bollama pull deepseek-llm:7b

4、启动交互式会话:输入ollama run deepseek-coder:6.7b,等待模型加载完毕后即可输入提示词。

5、如需强制启用GPU加速,请确保NVIDIA驱动版本≥525且已安装nvidia-container-toolkit,然后在运行前设置export OLLAMA_NUM_GPU=1

二、基于Transformers + llama.cpp量化推理(纯CPU低内存方案)

llama.cpp通过纯C/C++实现推理,支持GGUF格式量化模型,可在仅4GB内存的x86 CPU设备上运行7B参数模型。该路径绕过Python依赖冲突,适用于老旧笔记本或嵌入式Linux设备。

1、从Hugging Face Hub下载DeepSeek官方发布的GGUF格式模型,例如deepseek-llm-7b-chat.Q4_K_M.gguf,保存至本地目录./models/

2、克隆llama.cpp仓库:git clone https://github.com/ggerganov/llama.cpp && cd llama.cpp && make,编译过程将自动生成main可执行文件。

3、执行CPU推理命令:./main -m ./models/deepseek-llm-7b-chat.Q4_K_M.gguf -p "请用中文解释量子叠加态"

4、如需启用AVX2或NEON指令集加速,编译时添加make LLAMA_AVX=1make LLAMA_NEON=1参数。

注意:此方式不支持LoRA微调或动态批处理,仅限单次提示词推理

三、使用vLLM框架部署(GPU高吞吐服务化方案)

vLLM采用PagedAttention内存管理技术,显著提升A10/A100/V100等GPU设备上的并发请求吞吐量,适用于构建API服务或集成至Web UI后端。

Veed AI Voice Generator
Veed AI Voice Generator

Veed推出的AI语音生成器

下载

1、创建独立conda环境:conda create -n deepseek-vllm python=3.10 && conda activate deepseek-vllm

2、安装支持CUDA 12.1的vLLM:pip install vllm --extra-index-url https://download.pytorch.org/whl/cu121

3、从Hugging Face下载原始HF格式模型,例如deepseek-ai/deepseek-llm-7b-base,使用git lfs install && git clone完整获取。

4、启动API服务器:python -m vllm.entrypoints.api_server --model deepseek-ai/deepseek-llm-7b-base --tensor-parallel-size 1 --dtype half

5、发送HTTP请求测试:curl http://localhost:8000/generate -d '{"prompt":"你好","max_tokens":128}' -H "Content-Type: application/json"

关键参数说明:--tensor-parallel-size需根据GPU数量设置,单卡设为1;--dtype half可降低显存占用但需GPU支持FP16

四、Docker容器化部署(跨平台一致性保障方案)

Docker封装完整运行时依赖与模型权重路径映射,避免宿主机Python环境污染,特别适用于CI/CD流水线或Kubernetes集群调度。

1、编写Dockerfile,基础镜像选用nvidia/cuda:12.1.1-runtime-ubuntu22.04,安装python3.10、pip及vLLM依赖。

2、在Dockerfile中添加COPY ./models /app/models,确保模型权重与容器内路径一致。

3、构建镜像:docker build -t deepseek-vllm .,构建过程将自动缓存conda环境层。

4、运行容器并挂载GPU:docker run --gpus all -p 8000:8000 -v $(pwd)/models:/app/models deepseek-vllm

5、进入容器验证GPU可见性:docker exec -it <container_id> nvidia-smi</container_id>,输出应显示对应GPU型号及驱动版本。

必须确保宿主机已安装nvidia-docker2并重启docker daemon,否则--gpus参数无效

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
c语言 数据类型
c语言 数据类型

本专题整合了c语言数据类型相关内容,阅读专题下面的文章了解更多详细内容。

6

2026.02.12

雨课堂网页版登录入口与使用指南_官方在线教学平台访问方法
雨课堂网页版登录入口与使用指南_官方在线教学平台访问方法

本专题系统整理雨课堂网页版官方入口及在线登录方式,涵盖账号登录流程、官方直连入口及平台访问方法说明,帮助师生用户快速进入雨课堂在线教学平台,实现便捷、高效的课程学习与教学管理体验。

4

2026.02.12

豆包AI网页版入口与智能创作指南_官方在线写作与图片生成使用方法
豆包AI网页版入口与智能创作指南_官方在线写作与图片生成使用方法

本专题汇总豆包AI官方网页版入口及在线使用方式,涵盖智能写作工具、图片生成体验入口和官网登录方法,帮助用户快速直达豆包AI平台,高效完成文本创作与AI生图任务,实现便捷智能创作体验。

74

2026.02.12

PostgreSQL性能优化与索引调优实战
PostgreSQL性能优化与索引调优实战

本专题面向后端开发与数据库工程师,深入讲解 PostgreSQL 查询优化原理与索引机制。内容包括执行计划分析、常见索引类型对比、慢查询优化策略、事务隔离级别以及高并发场景下的性能调优技巧。通过实战案例解析,帮助开发者提升数据库响应速度与系统稳定性。

9

2026.02.12

Next.js全栈开发与SSR服务端渲染实战
Next.js全栈开发与SSR服务端渲染实战

本专题系统讲解 Next.js 框架在现代全栈开发中的应用,重点解析 SSR、SSG 与 ISR 渲染模式的原理与差异。内容涵盖路由系统、API Routes、数据获取策略、性能优化以及部署实践。通过完整项目示例,帮助开发者掌握高性能 SEO 友好的 React 全栈开发方案。

3

2026.02.12

Kotlin协程编程与Spring Boot集成实践
Kotlin协程编程与Spring Boot集成实践

本专题围绕 Kotlin 协程机制展开,深入讲解挂起函数、协程作用域、结构化并发与异常处理机制,并结合 Spring Boot 展示协程在后端开发中的实际应用。内容涵盖异步接口设计、数据库调用优化、线程资源管理以及性能调优策略,帮助开发者构建更加简洁高效的 Kotlin 后端服务架构。

43

2026.02.12

2026春节习俗大全
2026春节习俗大全

本专题整合了2026春节习俗大全,阅读专题下面的文章了解更多详细内容。

295

2026.02.11

Yandex网页版官方入口使用指南_国际版与俄罗斯版访问方法解析
Yandex网页版官方入口使用指南_国际版与俄罗斯版访问方法解析

本专题全面整理了Yandex搜索引擎的官方入口信息,涵盖国际版与俄罗斯版官网访问方式、网页版直达入口及免登录使用说明,帮助用户快速、安全地进入Yandex官网,高效使用其搜索与相关服务。

957

2026.02.11

虫虫漫画网页版入口与免费阅读指南_正版漫画全集在线查看方法
虫虫漫画网页版入口与免费阅读指南_正版漫画全集在线查看方法

本专题系统整理了虫虫漫画官网及网页版最新入口,涵盖免登录观看、正版漫画全集在线阅读方式,并汇总稳定可用的访问渠道,帮助用户快速找到虫虫漫画官方页面,轻松在线阅读各类热门漫画内容。

103

2026.02.11

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
Excel 教程
Excel 教程

共162课时 | 17万人学习

Webpack4.x---十天技能课堂
Webpack4.x---十天技能课堂

共20课时 | 1.5万人学习

Bootstrap4.x---十天精品课堂
Bootstrap4.x---十天精品课堂

共22课时 | 1.7万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号