0

0

在 CPU 上运行任何量化的 GGUF 模型进行本地推理的教程

霞舞

霞舞

发布时间:2025-10-01 20:39:12

|

1041人浏览过

|

来源于php中文网

原创

在 cpu 上运行任何量化的 gguf 模型进行本地推理的教程

本文档旨在指导读者如何在 CPU 上使用 llama-cpp-python 库运行任何量化的 GGUF 格式的开源 LLM 模型,例如 Llama 3、Mistral 或 Zephyr 等,而无需依赖 ctransformers 库支持。 本教程涵盖了环境配置、模型下载、推理代码编写以及一些实用技巧,帮助读者快速上手并解决常见问题

使用 llama-cpp-python 进行 CPU 推理

llama-cpp-python 是一个流行的 Python 库,它基于 llama.cpp,允许在 CPU 上运行量化的 LLM 模型。它易于使用,并且通常是第一个支持新型号量化版本的库之一。

1. 环境配置

首先,需要安装 llama-cpp-python 和 huggingface_hub。 llama-cpp-python 用于加载和运行模型,而 huggingface_hub 用于从 Hugging Face Model Hub 下载模型。

在终端中运行以下命令:

pip install llama-cpp-python
pip install huggingface_hub

请注意,上述命令安装的是 CPU 版本的 llama-cpp-python。 如果您想使用 GPU 加速,则需要进行额外的配置,具体步骤不在本文档的讨论范围内。

2. 模型下载

使用 huggingface_hub 从 Hugging Face Model Hub 下载 GGUF 模型。以下代码示例演示了如何下载 Mixtral-8x7B-Instruct-v0.1 模型:

from huggingface_hub import hf_hub_download

model_name = "TheBloke/Mixtral-8x7B-Instruct-v0.1-GGUF"
model_file = "mixtral-8x7b-instruct-v0.1.Q4_K_M.gguf"
model_path = hf_hub_download(model_name, filename=model_file)

print(f"Model downloaded to: {model_path}")

这段代码将下载 mixtral-8x7b-instruct-v0.1.Q4_K_M.gguf 文件到本地。 Q4_K_M 表示 4-bit 量化模型,您可以根据需要选择其他量化级别。

3. 模型加载与推理

下载模型后,可以使用 llama-cpp-python 加载并运行模型。以下代码示例展示了如何加载模型并生成文本:

Typeface
Typeface

AI创意内容创作助手

下载
from llama_cpp import Llama

llm = Llama(
    model_path=model_path,
    n_ctx=16000,  # Context length to use
    n_threads=32,  # Number of CPU threads to use
    n_gpu_layers=0  # Number of model layers to offload to GPU
)

generation_kwargs = {
    "max_tokens": 20000,
    "stop": ["</s>"],
    "echo": False,  # Echo the prompt in the output
    "top_k": 1  # This is essentially greedy decoding, since the model will always return the highest-probability token. Set this value > 1 for sampling decoding
}

prompt = "The meaning of life is "
res = llm(prompt, **generation_kwargs)

print(res["choices"][0]["text"])

这段代码首先使用 Llama 类加载模型,并设置上下文长度 (n_ctx)、线程数 (n_threads) 和 GPU 层数 (n_gpu_layers)。 由于我们要在 CPU 上运行模型,因此将 n_gpu_layers 设置为 0。

然后,定义生成参数 generation_kwargs,例如最大 token 数 (max_tokens)、停止词 (stop)、是否回显提示 (echo) 和 top-k 值 (top_k)。

最后,使用 llm 对象运行推理,并将结果打印到控制台。

4. 模型选择

Mixtral-8x7B 是一个相对较大的模型,可能需要大量的内存才能运行。 如果您的计算机内存有限,可以尝试使用较小的模型,例如 Llama-2-13B 或 Mistral-7B。

以下是一些较小模型的示例:

  • model_name="TheBloke/Llama-2-13B-chat-GGUF"; model_file="llama-2-13b-chat.Q4_K_M.gguf"
  • model_name="TheBloke/Mistral-7B-OpenOrca-GGUF"; model_file="mistral-7b-openorca.Q4_K_M.gguf"

注意事项

  • 确保您的计算机具有足够的内存来运行模型。
  • 根据您的 CPU 核心数调整 n_threads 参数。
  • 您可以尝试不同的量化级别,以在性能和内存使用之间找到平衡。
  • top_k=1 实际上是贪婪解码,模型总是返回最高概率的 token。 为了获得更多样化的输出,请将此值设置为大于 1 的值,以启用采样解码。

总结

本教程介绍了如何使用 llama-cpp-python 在 CPU 上运行量化的 GGUF 模型。 通过遵循这些步骤,您可以轻松地在本地运行各种开源 LLM 模型,并探索它们的强大功能。请记住,选择合适的模型和调整参数对于获得最佳性能至关重要。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
登录token无效
登录token无效

登录token无效解决方法:1、检查token的有效期限,如果token已经过期,需要重新获取一个新的token;2、检查token的签名,如果签名不正确,需要重新获取一个新的token;3、检查密钥的正确性,如果密钥不正确,需要重新获取一个新的token;4、使用HTTPS协议传输token,建议使用HTTPS协议进行传输 ;5、使用双因素认证,双因素认证可以提高账户的安全性。

6659

2023.09.14

登录token无效怎么办
登录token无效怎么办

登录token无效的解决办法有检查Token是否过期、检查Token是否正确、检查Token是否被篡改、检查Token是否与用户匹配、清除缓存或Cookie、检查网络连接和服务器状态、重新登录或请求新的Token、联系技术支持或开发人员等。本专题为大家提供token相关的文章、下载、课程内容,供大家免费下载体验。

845

2023.09.14

token怎么获取
token怎么获取

获取token值的方法:1、小程序调用“wx.login()”获取 临时登录凭证code,并回传到开发者服务器;2、开发者服务器以code换取,用户唯一标识openid和会话密钥“session_key”。想了解更详细的内容,可以阅读本专题下面的文章。

1092

2023.12.21

token什么意思
token什么意思

token是一种用于表示用户权限、记录交易信息、支付虚拟货币的数字货币。可以用来在特定的网络上进行交易,用来购买或出售特定的虚拟货币,也可以用来支付特定的服务费用。想了解更多token什么意思的相关内容可以访问本专题下面的文章。

2217

2024.03.01

线程和进程的区别
线程和进程的区别

线程和进程的区别:线程是进程的一部分,用于实现并发和并行操作,而线程共享进程的资源,通信更方便快捷,切换开销较小。本专题为大家提供线程和进程区别相关的各种文章、以及下载和课程。

786

2023.08.10

TypeScript类型系统进阶与大型前端项目实践
TypeScript类型系统进阶与大型前端项目实践

本专题围绕 TypeScript 在大型前端项目中的应用展开,深入讲解类型系统设计与工程化开发方法。内容包括泛型与高级类型、类型推断机制、声明文件编写、模块化结构设计以及代码规范管理。通过真实项目案例分析,帮助开发者构建类型安全、结构清晰、易维护的前端工程体系,提高团队协作效率与代码质量。

69

2026.03.13

Python异步编程与Asyncio高并发应用实践
Python异步编程与Asyncio高并发应用实践

本专题围绕 Python 异步编程模型展开,深入讲解 Asyncio 框架的核心原理与应用实践。内容包括事件循环机制、协程任务调度、异步 IO 处理以及并发任务管理策略。通过构建高并发网络请求与异步数据处理案例,帮助开发者掌握 Python 在高并发场景中的高效开发方法,并提升系统资源利用率与整体运行性能。

109

2026.03.12

C# ASP.NET Core微服务架构与API网关实践
C# ASP.NET Core微服务架构与API网关实践

本专题围绕 C# 在现代后端架构中的微服务实践展开,系统讲解基于 ASP.NET Core 构建可扩展服务体系的核心方法。内容涵盖服务拆分策略、RESTful API 设计、服务间通信、API 网关统一入口管理以及服务治理机制。通过真实项目案例,帮助开发者掌握构建高可用微服务系统的关键技术,提高系统的可扩展性与维护效率。

326

2026.03.11

Go高并发任务调度与Goroutine池化实践
Go高并发任务调度与Goroutine池化实践

本专题围绕 Go 语言在高并发任务处理场景中的实践展开,系统讲解 Goroutine 调度模型、Channel 通信机制以及并发控制策略。内容包括任务队列设计、Goroutine 池化管理、资源限制控制以及并发任务的性能优化方法。通过实际案例演示,帮助开发者构建稳定高效的 Go 并发任务处理系统,提高系统在高负载环境下的处理能力与稳定性。

62

2026.03.10

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.5万人学习

Django 教程
Django 教程

共28课时 | 5万人学习

SciPy 教程
SciPy 教程

共10课时 | 2万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号