本地下载hugging face模型有五种方式:一、cli工具下载,支持私有模型与自定义路径;二、python调用hf_hub_download,支持镜像加速与单文件控制;三、from_pretrained+save_pretrained组合,适合临时联网后持久化;四、网页端手动下载,适用于无命令行权限场景;五、snapshot_download批量获取完整仓库快照,确保版本固化与结构一致。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您希望在本地使用 Hugging Face 上的预训练模型,但网络环境受限或需离线部署,则需将模型文件完整下载至本地磁盘。以下是多种可靠、可验证的模型下载方式:
一、使用 Hugging Face CLI 工具下载
该方法适用于命令行操作熟练的用户,支持私有模型认证与自定义缓存路径,是官方推荐的标准化下载流程。
1、在终端中执行以下命令安装 CLI 工具:
pip install huggingface_hub
2、如需下载私有模型或绕过速率限制,需先登录账户:
huggingface-cli login
3、在 Hugging Face 网站个人 Settings → Access Tokens 页面生成 Read 权限 Token,并在终端提示中粘贴该 Token。
4、执行模型下载命令,例如下载中文 text2vec 模型:
huggingface-cli download shibing624/text2vec-base-chinese
5、若需指定保存位置,添加 --cache-dir ./my_models 参数,模型将解压至该目录而非默认缓存路径。
二、通过 Python 脚本调用 hf_hub_download 下载
此方式适合嵌入自动化脚本或云服务器批量下载场景,支持镜像加速与细粒度文件控制,不依赖全局缓存机制。
1、确保已安装最新版 huggingface_hub:
pip install -U huggingface_hub
2、设置国内镜像源以提升下载稳定性(可选):
import os
os.environ["HF_ENDPOINT"] = "https://hf-mirror.com"
3、导入并调用下载函数:
from huggingface_hub import hf_hub_download
4、指定模型 ID 与目标文件名,例如下载 config.json:
hf_hub_download(repo_id="bert-base-uncased", filename="config.json", local_dir="./bert_local")
5、如需下载全部文件,可配合 repo_files 列表循环调用,或直接使用 snapshot_download 函数替代单文件下载。
三、使用 transformers 库的 from_pretrained + save_pretrained 组合下载
该方法本质为“在线加载后本地持久化”,适用于已能临时访问 Hugging Face 且需保留完整模型结构与分词器配套文件的场景。
1、安装必要依赖:
pip install transformers torch
2、运行 Python 脚本加载远程模型:
from transformers import AutoModel, AutoTokenizer
智能网站管理系统( SmartSite )是由仙人掌软件基于asp+access环境下开发的企业级网站管理系统。SmartSite 内置单页、新闻、产品、视频、下载四大内容模型,在很大程度上满足了更多层次用户的需求和发展需要。会员、在线招聘等功能,加强网站的互动性的同时也可为网站的发展带来一定的盈利模式。SmartSite 开发了全新的、高效的、灵活性更强的模板引擎。无限循环(循环嵌套)标签、自定
3、实例化模型与分词器:
model = AutoModel.from_pretrained("google-bert/bert-base-chinese")
tokenizer = AutoTokenizer.from_pretrained("google-bert/bert-base-chinese")
4、执行本地保存操作:
model.save_pretrained("./bert_base_chinese_model")
tokenizer.save_pretrained("./bert_base_chinese_model")
5、保存完成后,目标目录将包含 pytorch_model.bin、config.json、tokenizer.json、vocab.txt 等核心文件,可完全离线加载。
四、直接从 Hugging Face 网页端手动下载
适用于无命令行权限、网络策略严格或仅需少量关键文件(如 tokenizer 或配置)的轻量级使用场景,无需任何工具链依赖。
1、访问模型页面,例如 https://huggingface.co/bert-base-uncased
2、滚动至 “Files and versions” 区域,查看所有可下载文件列表。
3、逐个点击所需文件(如 pytorch_model.bin、config.json、tokenizer.json)右侧的下载图标。
4、将全部文件统一保存至同一空文件夹内,确保文件名与原始命名一致,不得重命名或修改扩展名。
5、若模型含特殊文件(如 tf_model.h5、flax_model.msgpack),须按实际框架需求同步下载,否则本地加载将报错。
五、使用 snapshot_download 批量下载整库快照
该函数专为完整镜像设计,可一次性获取模型仓库当前 commit 的全部内容(含 .gitattributes、README.md、.safetensors 等),适用于合规归档或 CI/CD 流水线固化版本。
1、导入下载模块:
from huggingface_hub import snapshot_download
2、执行快照拉取:
snapshot_download(repo_id="meta-llama/Llama-2-7b-chat-hf", revision="main")
3、指定本地存储路径:
snapshot_download(repo_id="microsoft/phi-2", local_dir="./phi2_offline", local_dir_use_symlinks=False)
4、禁用符号链接(local_dir_use_symlinks=False)可确保文件实体完整复制,避免跨环境路径失效问题。
5、下载完成后的目录结构与线上仓库严格一致,可直接作为 from_pretrained 的合法路径输入。









