0

0

DeepSeek模型本地部署指南(Windows/Mac)

月夜之吻

月夜之吻

发布时间:2026-02-15 19:46:03

|

297人浏览过

|

来源于php中文网

原创

需先满足硬件与系统要求、安装推理框架与依赖、获取转换模型权重、启动本地推理服务、配置客户端访问接口五步。windows需cuda 12.1+及nvidia驱动≥535.00,mac需m1/m2/m3芯片及macos≥13.5,python限3.10/3.11;推荐llama.cpp(mac)或vllm(windows);模型需从hugging face下载并转换为gguf(mac)或直用hf路径(windows);服务启动后通过openai兼容客户端调用。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

deepseek模型本地部署指南(windows/mac)

如果您希望在本地计算机上运行DeepSeek模型,但尚未配置好运行环境,则可能是由于缺少必要的依赖库、硬件资源不足或模型文件加载失败。以下是完成DeepSeek模型本地部署的具体步骤:

一、确认硬件与系统要求

DeepSeek模型对计算资源有明确要求,尤其是运行较大参数量版本(如DeepSeek-V2、DeepSeek-Coder-33B)时,需确保本地设备满足最低运行条件。GPU显存不足将导致模型加载中断,CPU模式则仅适用于极小规模量化版本。

1、Windows用户需安装NVIDIA驱动程序(版本不低于535.00),并确认已启用CUDA 12.1或12.2支持。

2、Mac用户需使用搭载M1 Pro/Max/Ultra或M2/M3系列芯片的设备,且macOS版本不低于13.5。

3、检查可用磁盘空间:DeepSeek-Coder-7B-Quantized需至少8GB空闲空间,DeepSeek-V2-Full需预留45GB以上。

4、验证Python版本:必须为Python 3.10或3.11,不兼容3.12及以上版本。

二、安装推理框架与依赖

DeepSeek模型依赖特定推理后端进行高效加载与执行,推荐使用llama.cpp(CPU/Metal)或vLLM(GPU)作为主运行时。不同平台适配策略不同,需按系统类型选择对应方案。

1、Windows用户执行:pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121,随后运行pip install vllm==0.6.3.post1

2、Mac用户执行:brew install rust,再运行git clone https://github.com/ggerganov/llama.cpp && cd llama.cpp && make clean && make LLAMA_METAL=1

3、统一安装Hugging Face生态工具:pip install transformers accelerate sentencepiece tiktoken

4、验证CUDA可用性(仅Windows GPU用户):python -c "import torch; print(torch.cuda.is_available(), torch.cuda.device_count())",输出应为True 1或更高。

三、获取并转换模型权重

DeepSeek官方未直接提供GGUF格式模型,需从Hugging Face Hub下载原始权重,并转换为本地推理框架可识别的格式。转换过程需保留注意力层结构完整性,避免精度损失。

1、访问Hugging Face DeepSeek仓库页面,定位至deepseek-ai/deepseek-coder-7b-basedeepseek-ai/deepseek-v2,点击“Files and versions”标签页。

依图语音开放平台
依图语音开放平台

依图语音开放平台

下载

2、Windows用户使用git lfs install && git clone https://huggingface.co/deepseek-ai/deepseek-coder-7b-base下载全量权重。

3、Mac用户进入llama.cpp目录后执行:python convert-hf-to-gguf.py ../deepseek-coder-7b-base --outfile deepseek-coder-7b.Q4_K_M.gguf

4、Windows用户使用vLLM时无需转换,直接指定--model deepseek-ai/deepseek-coder-7b-base参数即可启动服务。

四、启动本地推理服务

完成模型加载后,需通过HTTP API或命令行交互方式启用推理能力。服务端口冲突、上下文长度超限或批处理尺寸设置不当均会导致请求失败。

1、Windows+vLLM方式:执行vllm serve --model deepseek-ai/deepseek-coder-7b-base --tensor-parallel-size 1 --port 8080

2、Mac+llama.cpp方式:执行./main -m deepseek-coder-7b.Q4_K_M.gguf -p "Write a Python function to merge two sorted lists" -n 256 -t 4 -c 2048

3、验证API服务:在新终端中运行curl -X POST http://localhost:8080/v1/completions -H "Content-Type: application/json" -d '{"model":"deepseek-coder-7b-base","prompt":"def fib","max_tokens":50}'

4、若返回JSON含"choices":[...]字段且无error键,则表示服务已就绪。

五、配置客户端访问接口

本地部署完成后,需通过兼容OpenAI API规范的客户端发起调用。直接使用curl易出错,推荐采用标准化Python脚本封装请求逻辑,规避认证头缺失或数据格式错误问题。

1、创建client.py文件,写入以下内容:import openai; client = openai.OpenAI(base_url="http://localhost:8080/v1", api_key="none")

2、添加调用语句:response = client.completions.create(model="deepseek-coder-7b-base", prompt="def quicksort", max_tokens=100)

3、运行脚本前确保vLLM服务仍在前台运行,且终端未被关闭或中断。

4、观察输出中response.choices[0].text是否返回有效代码片段,若为空字符串或报错ConnectionError,需检查端口占用情况。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
pixiv网页版官网登录与阅读指南_pixiv官网直达入口与在线访问方法
pixiv网页版官网登录与阅读指南_pixiv官网直达入口与在线访问方法

本专题系统整理pixiv网页版官网入口及登录访问方式,涵盖官网登录页面直达路径、在线阅读入口及快速进入方法说明,帮助用户高效找到pixiv官方网站,实现便捷、安全的网页端浏览与账号登录体验。

145

2026.02.13

微博网页版主页入口与登录指南_官方网页端快速访问方法
微博网页版主页入口与登录指南_官方网页端快速访问方法

本专题系统整理微博网页版官方入口及网页端登录方式,涵盖首页直达地址、账号登录流程与常见访问问题说明,帮助用户快速找到微博官网主页,实现便捷、安全的网页端登录与内容浏览体验。

100

2026.02.13

Flutter跨平台开发与状态管理实战
Flutter跨平台开发与状态管理实战

本专题围绕Flutter框架展开,系统讲解跨平台UI构建原理与状态管理方案。内容涵盖Widget生命周期、路由管理、Provider与Bloc状态管理模式、网络请求封装及性能优化技巧。通过实战项目演示,帮助开发者构建流畅、可维护的跨平台移动应用。

34

2026.02.13

TypeScript工程化开发与Vite构建优化实践
TypeScript工程化开发与Vite构建优化实践

本专题面向前端开发者,深入讲解 TypeScript 类型系统与大型项目结构设计方法,并结合 Vite 构建工具优化前端工程化流程。内容包括模块化设计、类型声明管理、代码分割、热更新原理以及构建性能调优。通过完整项目示例,帮助开发者提升代码可维护性与开发效率。

13

2026.02.13

Redis高可用架构与分布式缓存实战
Redis高可用架构与分布式缓存实战

本专题围绕 Redis 在高并发系统中的应用展开,系统讲解主从复制、哨兵机制、Cluster 集群模式及数据分片原理。内容涵盖缓存穿透与雪崩解决方案、分布式锁实现、热点数据优化及持久化策略。通过真实业务场景演示,帮助开发者构建高可用、可扩展的分布式缓存系统。

19

2026.02.13

c语言 数据类型
c语言 数据类型

本专题整合了c语言数据类型相关内容,阅读专题下面的文章了解更多详细内容。

27

2026.02.12

雨课堂网页版登录入口与使用指南_官方在线教学平台访问方法
雨课堂网页版登录入口与使用指南_官方在线教学平台访问方法

本专题系统整理雨课堂网页版官方入口及在线登录方式,涵盖账号登录流程、官方直连入口及平台访问方法说明,帮助师生用户快速进入雨课堂在线教学平台,实现便捷、高效的课程学习与教学管理体验。

11

2026.02.12

豆包AI网页版入口与智能创作指南_官方在线写作与图片生成使用方法
豆包AI网页版入口与智能创作指南_官方在线写作与图片生成使用方法

本专题汇总豆包AI官方网页版入口及在线使用方式,涵盖智能写作工具、图片生成体验入口和官网登录方法,帮助用户快速直达豆包AI平台,高效完成文本创作与AI生图任务,实现便捷智能创作体验。

371

2026.02.12

PostgreSQL性能优化与索引调优实战
PostgreSQL性能优化与索引调优实战

本专题面向后端开发与数据库工程师,深入讲解 PostgreSQL 查询优化原理与索引机制。内容包括执行计划分析、常见索引类型对比、慢查询优化策略、事务隔离级别以及高并发场景下的性能调优技巧。通过实战案例解析,帮助开发者提升数据库响应速度与系统稳定性。

28

2026.02.12

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
PostgreSQL 教程
PostgreSQL 教程

共48课时 | 9.2万人学习

Excel 教程
Excel 教程

共162课时 | 17.5万人学习

PHP基础入门课程
PHP基础入门课程

共33课时 | 2.1万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号