0

0

1分钟学会DeepSeek本地部署,小白也能搞定!

看不見的法師

看不見的法師

发布时间:2025-04-22 11:38:29

|

1273人浏览过

|

来源于php中文网

原创

deepseek 是由国内顶尖 ai 团队「深度求索」开发的多模态大模型,具备数学推理、代码生成等深度能力,被誉为"ai界的六边形战士"。

DeepSeek 拥有许多标签,其中最具代表性的有以下两个:

低成本(不挑硬件、开源) 高性能(推理能力极强、回答准确)

一、为什么要在本地部署 DeepSeek? 使用 DeepSeek 时,许多用户会遇到以下问题:

1分钟学会DeepSeek本地部署,小白也能搞定! 这是因为 DeepSeek 火爆后访问量激增,再加上来自国外的持续恶意攻击,导致其服务器不稳定。因此,在本地部署 DeepSeek 大模型就显得尤为重要。

此外,对于一些敏感数据,用户不希望将其上传到网络,安全性是首要考虑的因素。本地大模型运行在用户自己的电脑上,完全不受网络影响,数据保存在本地,隐私性更高。同时,本地大模型可以根据用户需求进行定制,使用灵活性极强。

二、如何在本地部署大模型? 在本地部署 DeepSeek 只需以下三步:

  1. 安装 Ollama。
  2. 部署 DeepSeek。
  3. 使用 DeepSeek:这里我们使用 ChatBox 客户端操作 DeepSeek(此步骤非必须)。

Ollama、DeepSeek 和 ChatBox 之间的关系如下:

  • Ollama 是“大管家”,负责将 DeepSeek 安装到用户的电脑上。
  • DeepSeek 是“超级大脑”,在 Ollama 搭建的环境中运行,帮助用户完成各种任务。
  • ChatBox 是“聊天工具”,让用户更方便地与 DeepSeek 交流。

安装 Ollama Ollama 是一个开源的大型语言模型服务工具,主要帮助用户在本地快速运行大模型。它简化了在 Docker 容器中部署和管理大语言模型(LLM)的过程。

PS:Ollama 就是大模型界的“Docker”。

Ollama 的优点包括:

  • 易于使用:即使是没有经验的用户也能轻松上手,无需开发即可直接与模型进行交互。
  • 轻量级:代码简洁,运行时占用资源少,能够在本地高效运行,不需要大量的计算资源。
  • 可扩展:支持多种模型架构,并易于添加新模型或更新现有模型,还支持热加载模型文件,无需重新启动即可切换不同的模型,具有较高的灵活性。
  • 预构建模型库:包含一系列预先训练好的大型语言模型,可用于各种任务,如文本生成、翻译、问答等,方便在本地运行大型语言模型。

Ollama 官网:https://www.php.cn/link/838dc9de386130f83f625a98d1ea561f

下载并安装 Ollama: 下载地址:https://www.php.cn/link/838dc9de386130f83f625a98d1ea561f

1分钟学会DeepSeek本地部署,小白也能搞定! 用户根据自己的操作系统选择对应的安装包,然后安装 Ollama 软件即可。

安装完成后,电脑上会出现一个 Ollama 应用:

1分钟学会DeepSeek本地部署,小白也能搞定! 点击应用即可运行 Ollama,此时在电脑状态栏可以看到 Ollama 的小图标。要测试 Ollama 是否安装成功,使用命令窗口输入“ollama -v”指令,如果能正常响应并显示 Ollama 版本号,就说明安装成功了,如下图所示:

1分钟学会DeepSeek本地部署,小白也能搞定!

部署 DeepSeek Ollama 支持的大模型列表:https://www.php.cn/link/838dc9de386130f83f625a98d1ea561flibrary

选择 DeepSeek 大模型版本,如下图所示:

1分钟学会DeepSeek本地部署,小白也能搞定!

DeepSeek 版本介绍

模型参数规模 典型用途 CPU 建议 GPU 建议 内存建议 (RAM) 磁盘空间建议 适用场景
1.5b (15亿) 小型推理、轻量级任务 4核以上 (Intel i5 / AMD Ryzen 5) 可选,入门级 GPU (如 NVIDIA GTX 1650, 4GB 显存) 8GB 10GB 以上 SSD 小型 NLP 任务、文本生成、简单分类
7b (70亿) 中等推理、通用任务 6核以上 (Intel i7 / AMD Ryzen 7) 中端 GPU (如 NVIDIA RTX 3060, 12GB 显存) 16GB 20GB 以上 SSD 中等规模 NLP、对话系统、文本分析
14b (140亿) 中大型推理、复杂任务 8核以上 (Intel i9 / AMD Ryzen 9) 高端 GPU (如 NVIDIA RTX 3090, 24GB 显存) 32GB 50GB 以上 SSD 复杂 NLP、多轮对话、知识问答
32b (320亿) 大型推理、高性能任务 12核以上 (Intel Xeon / AMD Threadripper) 高性能 GPU (如 NVIDIA A100, 40GB 显存) 64GB 100GB 以上 SSD 大规模 NLP、多模态任务、研究用途
70b (700亿) 超大规模推理、研究任务 16核以上 (服务器级 CPU) 多 GPU 并行 (如 2x NVIDIA A100, 80GB 显存) 128GB 200GB 以上 SSD 超大规模模型、研究、企业级应用
671b (6710亿) 超大规模训练、企业级任务 服务器级 CPU (如 AMD EPYC / Intel Xeon) 多 GPU 集群 (如 8x NVIDIA A100, 320GB 显存) 256GB 或更高 1TB 以上 NVMe SSD 超大规模训练、企业级 AI 平台

例如,安装并运行 DeepSeek:ollama run deepseek-r1:1.5b

1分钟学会DeepSeek本地部署,小白也能搞定!

使用 DeepSeek 这里我们使用 ChatBox 调用 DeepSeek 进行交互,ChatBox 是一个前端工具,用于方便地对接各种大模型(包括 DeepSeek),并且它支持跨平台,使用直观易用。

ChatBox 官网地址:https://www.php.cn/link/de487db7a08250a136f966ead11da262

标小兔AI写标书
标小兔AI写标书

一款专业的标书AI代写平台,提供专业AI标书代写服务,安全、稳定、速度快,可满足各类招投标需求,标小兔,写标书,快如兔。

下载

点击下载按钮获取 ChatBox 安装包:

1分钟学会DeepSeek本地部署,小白也能搞定!1分钟学会DeepSeek本地部署,小白也能搞定!1分钟学会DeepSeek本地部署,小白也能搞定!1分钟学会DeepSeek本地部署,小白也能搞定!

安装完 Chatbox 后,需要配置 DeepSeek 到 Chatbox,如下界面所示:

1分钟学会DeepSeek本地部署,小白也能搞定!1分钟学会DeepSeek本地部署,小白也能搞定!1分钟学会DeepSeek本地部署,小白也能搞定!

使用 DeepSeek,如下图所示:

1分钟学会DeepSeek本地部署,小白也能搞定!

三、扩展知识:本地 DeepSeek 集成到 IDEA 安装 CodeGPT 插件

1分钟学会DeepSeek本地部署,小白也能搞定!

配置 Ollama Ollama API 默认调用端口号:11434

检查相应的配置,如下所示:

1分钟学会DeepSeek本地部署,小白也能搞定!1分钟学会DeepSeek本地部署,小白也能搞定!

使用 Ollama

1分钟学会DeepSeek本地部署,小白也能搞定!

四、优缺点分析 本地大模型的优缺点分析

优点:

  • 隐私性高:数据都在本地,不用担心泄露问题,对于一些敏感数据处理来说,这是最大的优势。
  • 稳定性强:不受网络影响,只要电脑不坏,模型就能稳定运行,不用担心中途卡顿或者断线。
  • 可定制性强:可以根据自己的需求进行调整和优化,想让它做什么功能就做什么功能,灵活性很高。

缺点:

  • 硬件要求高:大模型对电脑的性能要求不低,如果电脑配置不够,可能会运行很卡,甚至跑不起来。
  • 部署复杂:对于小白来说,一开始可能会觉得有点复杂,需要安装各种东西,还得配置参数,不过只要按照教程来,其实也没那么难。
  • 维护成本高:如果模型出了问题,可能需要自己去排查和解决,不像在线工具,有问题直接找客服就行。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
k8s和docker区别
k8s和docker区别

k8s和docker区别有抽象层次不同、管理范围不同、功能不同、应用程序生命周期管理不同、缩放能力不同、高可用性等等区别。本专题为大家提供k8s和docker区别相关的各种文章、以及下载和课程。

257

2023.07.24

docker进入容器的方法有哪些
docker进入容器的方法有哪些

docker进入容器的方法:1. Docker exec;2. Docker attach;3. Docker run --interactive --tty;4. Docker ps -a;5. 使用 Docker Compose。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

498

2024.04.08

docker容器无法访问外部网络怎么办
docker容器无法访问外部网络怎么办

docker 容器无法访问外部网络的原因和解决方法:配置 nat 端口映射以将容器端口映射到主机端口。根据主机兼容性选择正确的网络驱动(如 host 或 overlay)。允许容器端口通过主机的防火墙。配置容器的正确 dns 服务器。选择正确的容器网络模式。排除主机网络问题,如防火墙或连接问题。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

401

2024.04.08

docker镜像有什么用
docker镜像有什么用

docker 镜像是预构建的软件组件,用途广泛,包括:应用程序部署:简化部署,提高移植性。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

438

2024.04.08

idea快捷键大全
idea快捷键大全

本专题为大家提供idea快捷键相关的文章,帮助大家解决问题。

166

2023.08.03

idea如何集成Tomcat
idea如何集成Tomcat

idea集成Tomcat的步骤:1、添加Tomcat服务器配置;2、配置项目部署;3、运行Tomcat服务器;4、访问项目;5、注意事项;6、关闭Tomcat服务器。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

169

2024.02.23

idea怎么配置maven
idea怎么配置maven

idea配置maven的步骤:1、打开intellij idea,并确保已安装maven integration插件,可以在"file"菜单中选择"settings",然后在"plugins"选项卡中搜索并安装maven integration插件等等。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

119

2024.02.23

eclipse和idea有什么区别
eclipse和idea有什么区别

eclipse和idea的区别:1、平台支持;2、内存占用;3、插件系统;4、智能代码提示;5、界面设计;6、调试功能;7、学习曲线。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

136

2024.02.23

Python 自然语言处理(NLP)基础与实战
Python 自然语言处理(NLP)基础与实战

本专题系统讲解 Python 在自然语言处理(NLP)领域的基础方法与实战应用,涵盖文本预处理(分词、去停用词)、词性标注、命名实体识别、关键词提取、情感分析,以及常用 NLP 库(NLTK、spaCy)的核心用法。通过真实文本案例,帮助学习者掌握 使用 Python 进行文本分析与语言数据处理的完整流程,适用于内容分析、舆情监测与智能文本应用场景。

6

2026.01.27

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
光速学会docker容器
光速学会docker容器

共33课时 | 1.9万人学习

Docker 17 中文开发手册
Docker 17 中文开发手册

共0课时 | 0人学习

极客学院Docker视频教程
极客学院Docker视频教程

共33课时 | 17.9万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号