0

0

DeepSeek模型开源了吗?如何本地部署?

幻夢星雲

幻夢星雲

发布时间:2026-02-17 15:14:03

|

362人浏览过

|

来源于php中文网

原创

deepseek系列模型已部分开源,提供github仓库、hugging face和modelscope三种获取渠道,并支持llama.cpp、transformers+autogptq及ollama三种本地部署方式。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

deepseek模型开源了吗?如何本地部署?

DeepSeek系列模型已实现部分开源,包括DeepSeek-V2、DeepSeek-Coder、DeepSeek-MoE等架构的权重与推理代码,官方代码仓库托管于GitHub,模型文件支持Hugging Face和ModelScope平台下载。本地部署需结合硬件环境、依赖库及模型量化策略完成。以下是具体操作路径:

一、确认模型开源状态与获取渠道

DeepSeek官方明确开源了多个版本的模型权重与推理代码,但未开源全部训练细节与完整数据集。开源内容涵盖基础语言模型、代码专用模型及多专家混合架构(MoE)变体。用户可通过合法授权渠道获取模型文件,避免使用非官方镜像或破解资源。

1、访问DeepSeek官方GitHub仓库(https://github.com/deepseek-ai),核对Releases标签页中最新发布的模型版本。

2、在Hugging Face Hub搜索deepseek-ai组织主页,筛选text-generation任务类型,选择带q4_k_mQ5_K_M后缀的GGUF格式量化模型。

3、若使用国内网络环境,可同步访问魔搭(ModelScope)平台,搜索“DeepSeek”并选择标注为开源可商用的模型卡片,点击“模型文件”下载bin或safetensors格式权重。

二、准备兼容的运行环境

本地部署依赖CUDA加速与Python生态支持,环境配置直接影响模型加载成功率与推理稳定性。需严格匹配显卡驱动、CUDA Toolkit与PyTorch版本,避免因ABI不兼容导致core dump或GPU不可见。

1、执行nvidia-smi命令,记录显卡型号与驱动版本;对照NVIDIA官网文档确认该驱动支持的最高CUDA版本。

2、下载对应CUDA Toolkit(推荐CUDA 11.8CUDA 12.1),安装时取消勾选NVIDIA Driver组件,仅安装Runtime与Toolkit。

3、使用conda创建隔离环境:conda create -n ds-env python=3.10,激活后执行pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118(CUDA 11.8场景)。

三、采用llama.cpp方式部署量化模型

llama.cpp提供纯C/C++实现的推理引擎,支持GGUF格式模型,内存占用低且兼容CPU/GPU混合推理,适合显存有限或无NVIDIA显卡的设备。

1、克隆仓库:git clone https://github.com/ggerganov/llama.cpp && cd llama.cpp && make clean && make -j

2、将下载的deepseek-7b-q4_k_m.gguf文件放入models/子目录。

3、启动交互式推理:./main -m models/deepseek-7b-q4_k_m.gguf -n 512 -t 8 -ngl 40,其中-ngl 40表示将前40层卸载至GPU加速。

四、使用Transformers + AutoGPTQ加载INT4模型

该方式保留PyTorch完整生态,支持LoRA微调与自定义Tokenizer,适用于需二次开发或集成至Web服务的场景。依赖AutoGPTQ库进行权重量化加载,要求显存≥8GB(7B模型)。

1、安装依赖:pip install transformers accelerate auto-gptq optimum

2、编写加载脚本,设置device_map="auto"trust_remote_code=True参数。

3、调用model = AutoModelForCausalLM.from_pretrained("path/to/model", device_map="auto", quantization_config=quant_config)完成实例化,其中quant_config由GPTQConfig(bits=4, disable_exllama=True)构造。

五、通过Ollama一键封装与运行

Ollama提供类Docker的模型管理机制,支持将GGUF模型打包为可执行镜像,简化跨平台部署流程,适合快速验证与CLI交互场景。

1、安装Ollama客户端(macOS/Linux支持ARM/x86,Windows需WSL2)。

2、创建Modelfile:FROM ./deepseek-7b-q4_k_m.gguf,添加PARAMETER num_gpu 40指定GPU层卸载数。

3、构建并运行:ollama create deepseek7b -f Modelfile && ollama run deepseek7b,启动后即可通过curl http://localhost:11434/api/chat接入HTTP API。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
pixiv网页版官网登录与阅读指南_pixiv官网直达入口与在线访问方法
pixiv网页版官网登录与阅读指南_pixiv官网直达入口与在线访问方法

本专题系统整理pixiv网页版官网入口及登录访问方式,涵盖官网登录页面直达路径、在线阅读入口及快速进入方法说明,帮助用户高效找到pixiv官方网站,实现便捷、安全的网页端浏览与账号登录体验。

463

2026.02.13

微博网页版主页入口与登录指南_官方网页端快速访问方法
微博网页版主页入口与登录指南_官方网页端快速访问方法

本专题系统整理微博网页版官方入口及网页端登录方式,涵盖首页直达地址、账号登录流程与常见访问问题说明,帮助用户快速找到微博官网主页,实现便捷、安全的网页端登录与内容浏览体验。

135

2026.02.13

Flutter跨平台开发与状态管理实战
Flutter跨平台开发与状态管理实战

本专题围绕Flutter框架展开,系统讲解跨平台UI构建原理与状态管理方案。内容涵盖Widget生命周期、路由管理、Provider与Bloc状态管理模式、网络请求封装及性能优化技巧。通过实战项目演示,帮助开发者构建流畅、可维护的跨平台移动应用。

64

2026.02.13

TypeScript工程化开发与Vite构建优化实践
TypeScript工程化开发与Vite构建优化实践

本专题面向前端开发者,深入讲解 TypeScript 类型系统与大型项目结构设计方法,并结合 Vite 构建工具优化前端工程化流程。内容包括模块化设计、类型声明管理、代码分割、热更新原理以及构建性能调优。通过完整项目示例,帮助开发者提升代码可维护性与开发效率。

20

2026.02.13

Redis高可用架构与分布式缓存实战
Redis高可用架构与分布式缓存实战

本专题围绕 Redis 在高并发系统中的应用展开,系统讲解主从复制、哨兵机制、Cluster 集群模式及数据分片原理。内容涵盖缓存穿透与雪崩解决方案、分布式锁实现、热点数据优化及持久化策略。通过真实业务场景演示,帮助开发者构建高可用、可扩展的分布式缓存系统。

26

2026.02.13

c语言 数据类型
c语言 数据类型

本专题整合了c语言数据类型相关内容,阅读专题下面的文章了解更多详细内容。

29

2026.02.12

雨课堂网页版登录入口与使用指南_官方在线教学平台访问方法
雨课堂网页版登录入口与使用指南_官方在线教学平台访问方法

本专题系统整理雨课堂网页版官方入口及在线登录方式,涵盖账号登录流程、官方直连入口及平台访问方法说明,帮助师生用户快速进入雨课堂在线教学平台,实现便捷、高效的课程学习与教学管理体验。

14

2026.02.12

豆包AI网页版入口与智能创作指南_官方在线写作与图片生成使用方法
豆包AI网页版入口与智能创作指南_官方在线写作与图片生成使用方法

本专题汇总豆包AI官方网页版入口及在线使用方式,涵盖智能写作工具、图片生成体验入口和官网登录方法,帮助用户快速直达豆包AI平台,高效完成文本创作与AI生图任务,实现便捷智能创作体验。

524

2026.02.12

PostgreSQL性能优化与索引调优实战
PostgreSQL性能优化与索引调优实战

本专题面向后端开发与数据库工程师,深入讲解 PostgreSQL 查询优化原理与索引机制。内容包括执行计划分析、常见索引类型对比、慢查询优化策略、事务隔离级别以及高并发场景下的性能调优技巧。通过实战案例解析,帮助开发者提升数据库响应速度与系统稳定性。

53

2026.02.12

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
Excel 教程
Excel 教程

共162课时 | 17.7万人学习

Webpack4.x---十天技能课堂
Webpack4.x---十天技能课堂

共20课时 | 1.5万人学习

Bootstrap4.x---十天精品课堂
Bootstrap4.x---十天精品课堂

共22课时 | 1.8万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号