0

0

如何搭建自己的本地AI大语言模型?Ollama安装使用教程

畫卷琴夢

畫卷琴夢

发布时间:2026-02-06 16:53:03

|

922人浏览过

|

来源于php中文网

原创

可通过Ollama在本地部署大模型:一、下载安装Ollama并验证版本;二、用ollama run拉取并运行llama3或phi3等模型,或ollama serve启动API服务;三、用Modelfile定制模型并创建;四、通过RESTful API调用;五、用ollama list/rm/ps管理模型与资源。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如何搭建自己的本地ai大语言模型?ollama安装使用教程

如果您希望在个人电脑上运行大语言模型而无需依赖云端服务,则可以通过 Ollama 在本地快速部署和管理多个开源大模型。以下是完成该目标的具体操作步骤:

一、下载并安装 Ollama

Ollama 是一个专为本地运行大语言模型设计的轻量级工具,支持 macOS、Windows(需 WSL2)和 Linux 系统,提供命令行接口与模型自动拉取功能。安装后即可直接调用模型,无需手动配置 CUDA 或 Python 环境。

1、访问 https://ollama.com/download,根据您的操作系统选择对应安装包。

2、macOS 用户双击 .pkg 文件,按向导完成安装;Windows 用户需先启用 WSL2,再运行 .exe 安装程序;Linux 用户执行官方提供的 curl 命令一键安装。

3、安装完成后,在终端或命令提示符中输入 ollama --version,确认返回版本号即表示安装成功。

二、拉取并运行基础大模型

Ollama 内置模型仓库,所有模型均通过简洁命令下载并加载到本地,模型文件默认缓存在用户目录下,后续调用无需重复下载。

1、在终端中执行 ollama run llama3,系统将自动拉取 Meta 的 Llama 3 模型(约 4.7GB),完成后进入交互式聊天界面。

2、若网络较慢,可改用更小体积的模型:执行 ollama run phi3,该模型仅需约 2.3GB 存储空间且对硬件要求更低。

3、如需后台运行模型供其他程序调用,使用 ollama serve 启动服务,此时 API 默认监听 http://127.0.0.1:11434

三、使用自定义 Modelfile 构建专属模型

Modelfile 是 Ollama 的模型定义脚本,允许用户基于已有模型添加系统提示、调整参数或注入领域知识,从而生成定制化行为的本地模型。

1、新建文本文件,命名为 Modelfile,内容以 FROM llama3 开头,指定基础模型。

2、在下方添加 SYSTEM "你是一位专注解答编程问题的助手,回答需简洁、准确、不虚构信息。",设定角色指令。

MonkeyCode
MonkeyCode

企业级AI开发平台,全新的AI编程体验,让你的研发团队效率Max

下载

3、保存文件后,在同一目录执行 ollama create mycoder -f Modelfile,构建新模型并命名为 mycoder。

4、构建完成后,运行 ollama run mycoder 即可启动该定制模型。

四、通过 API 调用本地模型

Ollama 提供标准 RESTful 接口,兼容各类编程语言客户端,适用于集成至 Web 应用、脚本或自动化流程中,无需额外部署 FastAPI 或 Flask 服务。

1、确保已执行 ollama serve 并保持终端运行状态。

2、使用 curl 发送请求:curl http://localhost:11434/api/chat -d '{"model":"llama3","messages":[{"role":"user","content":"你好"}]}'

3、响应体为流式 JSON 数据,包含完整对话历史与模型输出,字段 message.content 即为生成文本。

五、管理已安装模型与资源

Ollama 自动维护模型列表、大小及最后使用时间,支持清理冗余模型释放磁盘空间,并可查看实时 GPU/CPU 利用率,便于监控本地推理负载。

1、列出所有已安装模型:执行 ollama list,显示模型名、大小、修改时间等信息。

2、删除不再需要的模型:运行 ollama rm llama3,注意此操作不可逆,且不会影响其他模型。

3、查看当前运行状态:执行 ollama ps,输出正在运行的会话 ID、模型名与运行时长。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
1688阿里巴巴货源平台入口与批发采购指南
1688阿里巴巴货源平台入口与批发采购指南

本专题整理了1688阿里巴巴批发进货平台的最新入口地址与在线采购指南,帮助用户快速找到官方网站入口,了解如何进行批发采购、货源选择以及厂家直销等功能,提升采购效率与平台使用体验。

60

2026.02.06

快手网页版入口与电脑端使用指南 快手官方短视频观看入口
快手网页版入口与电脑端使用指南 快手官方短视频观看入口

本专题汇总了快手网页版的最新入口地址和电脑版使用方法,详细提供快手官网直接访问链接、网页端操作教程,以及如何无需下载安装直接观看短视频的方式,帮助用户轻松浏览和观看快手短视频内容。

15

2026.02.06

C# 多线程与异步编程
C# 多线程与异步编程

本专题深入讲解 C# 中多线程与异步编程的核心概念与实战技巧,包括线程池管理、Task 类的使用、async/await 异步编程模式、并发控制与线程同步、死锁与竞态条件的解决方案。通过实际项目,帮助开发者掌握 如何在 C# 中构建高并发、低延迟的异步系统,提升应用性能和响应速度。

7

2026.02.06

Python 微服务架构与 FastAPI 框架
Python 微服务架构与 FastAPI 框架

本专题系统讲解 Python 微服务架构设计与 FastAPI 框架应用,涵盖 FastAPI 的快速开发、路由与依赖注入、数据模型验证、API 文档自动生成、OAuth2 与 JWT 身份验证、异步支持、部署与扩展等。通过实际案例,帮助学习者掌握 使用 FastAPI 构建高效、可扩展的微服务应用,提高服务响应速度与系统可维护性。

4

2026.02.06

JavaScript 异步编程与事件驱动架构
JavaScript 异步编程与事件驱动架构

本专题深入讲解 JavaScript 异步编程与事件驱动架构,涵盖 Promise、async/await、事件循环机制、回调函数、任务队列与微任务队列、以及如何设计高效的异步应用架构。通过多个实际示例,帮助开发者掌握 如何处理复杂异步操作,并利用事件驱动设计模式构建高效、响应式应用。

5

2026.02.06

java连接字符串方法汇总
java连接字符串方法汇总

本专题整合了java连接字符串教程合集,阅读专题下面的文章了解更多详细操作。

25

2026.02.05

java中fail含义
java中fail含义

本专题整合了java中fail的含义、作用相关内容,阅读专题下面的文章了解更多详细内容。

28

2026.02.05

控制反转和依赖注入区别
控制反转和依赖注入区别

本专题整合了控制反转和依赖注入区别、解释、实现方法相关内容。阅读专题下面的文章了解更多详细教程。

19

2026.02.05

钉钉脑图插图教程合集
钉钉脑图插图教程合集

本专题整合了钉钉脑图怎么插入图片、钉钉脑图怎么用相关教程,阅读专题下面的文章了解更多详细内容。

60

2026.02.05

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
PostgreSQL 教程
PostgreSQL 教程

共48课时 | 8.6万人学习

Git 教程
Git 教程

共21课时 | 3.4万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号