WorkBuddy支持本地大模型离线调用与隐私模式双重保障:一、通过设置→AI模型管理添加GGUF模型并启用llama.cpp;二、在安全与隐私中开启隐私模式并清空缓存;三、断网验证离线运行、本地推理响应及网络零流量。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您希望在不依赖网络连接的情况下使用大语言模型,并确保所有数据处理均在本地完成,WorkBuddy 提供了本地大模型离线调用与隐私模式双重保障。以下是实现该功能的具体操作路径:
一、启用本地大模型离线调用
WorkBuddy 支持将兼容的 GGUF 格式大模型文件部署至本地运行环境,所有推理过程完全在用户设备端执行,无任何数据上传行为。需提前准备已下载的模型文件及适配的推理后端。
1、打开 WorkBuddy 主界面,点击左下角 设置图标(齿轮) 进入系统配置页。
2、在左侧菜单中选择 AI 模型管理,点击右侧 添加本地模型 按钮。
3、在弹出窗口中,点击 浏览 并定位到已存放的 .gguf 模型文件(如 qwen2.5-0.5b-q4_k_m.gguf),确认选择。
4、为该模型指定名称、上下文长度(建议 4096)、线程数(推荐设为 CPU 物理核心数),勾选 启用本地推理引擎(llama.cpp)。
5、点击 保存并加载,等待状态栏显示 “模型已就绪,处于离线激活状态”。
二、开启隐私模式(无痕会话)
隐私模式可禁用全部本地日志记录、对话历史缓存及自动备份功能,确保每次交互内容仅存在于当前内存中,关闭窗口即彻底清除。
1、返回主设置页,在 安全与隐私 分类下找到 隐私模式开关。
2、将滑块向右拖动至开启位置,系统立即提示 “当前会话已进入隐私模式:不保存聊天记录、不生成本地快照、不触发后台同步”。
3、点击下方 强制清空现有缓存 按钮,移除此前存储于 %APPDATA%\WorkBuddy\Cache\ 的全部 session.db 与 history.json 文件。
4、重启 WorkBuddy 应用,重新进入任意聊天窗口时,标题栏右上角将显示 “隐私模式:ON” 标识。
三、验证离线与隐私状态
通过双重校验机制确认当前环境符合本地化与隐私要求,避免因配置残留导致意外联网或数据留存。
1、断开设备所有网络连接(包括 Wi-Fi、以太网、移动热点),观察状态栏是否出现 “离线运行中” 提示。
2、在任意对话框中输入测试指令,如“请输出当前时间”,若响应正常且无延迟波动,说明模型确由本地 CPU/GPU 推理完成。
3、打开 Windows 资源监视器(或 macOS 活动监视器),在“网络”标签页中筛选 WorkBuddy 进程,确认其 发送/接收字节数恒为 0。
4、关闭 WorkBuddy 后,手动检查默认数据目录(如 C:\Users\[用户名]\AppData\Roaming\WorkBuddy\),确认 history/、logs/、backup/ 子目录为空或不存在。










