使用 Docker 可快速部署 OpenClaw 服务:需先安装 ≥20.10 版 Docker,再拉取 ghcr.io/openclaw/openclaw 镜像,创建 ~/openclaw-data 持久化目录,最后通过 docker run 启动容器(支持 CPU 或 GPU 模式)。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您希望在本地环境中快速启动 OpenClaw 服务,使用 Docker 是最简洁高效的方式。以下是完成 OpenClaw 容器部署的具体步骤:
一、准备 Docker 环境
确保宿主机已安装并运行 Docker 引擎,且版本不低于 20.10。OpenClaw 镜像依赖于标准 Linux 容器运行时,不兼容 Docker Desktop 的 WSL2 后端未启用 systemd 的场景。
1、执行 docker --version 验证 Docker 是否可用。
2、运行 sudo systemctl is-active docker 检查 Docker 服务状态,输出应为 active。
3、若未安装,依据操作系统执行对应命令:Ubuntu/Debian 系统使用 sudo apt update && sudo apt install docker.io;CentOS/RHEL 使用 sudo yum install docker。
二、拉取 OpenClaw 官方镜像
OpenClaw 提供预构建的多架构容器镜像,托管于 GitHub Container Registry(ghcr.io),无需自行构建即可直接运行。
1、执行 docker pull ghcr.io/openclaw/openclaw:latest 下载最新稳定版镜像。
2、如需指定版本,可替换 latest 为具体标签,例如 ghcr.io/openclaw/openclaw:v0.8.3。
3、拉取完成后,运行 docker images | grep openclaw 确认镜像已存在于本地仓库。
三、创建持久化数据目录
OpenClaw 运行时需保存模型权重、日志及配置文件,建议通过绑定挂载方式将宿主机目录映射至容器内 /app/data 路径,避免容器重启后数据丢失。
1、执行 mkdir -p ~/openclaw-data/logs ~/openclaw-data/models ~/openclaw-data/config 创建分级目录结构。
2、设置目录权限:运行 sudo chown -R $USER:$USER ~/openclaw-data 确保当前用户可读写。
3、验证路径有效性:执行 ls -ld ~/openclaw-data,确认输出中包含 rwx 权限标识。
四、运行 OpenClaw 容器(标准模式)
使用 docker run 命令以非特权模式启动容器,暴露默认 HTTP 端口 8000,并挂载前述数据目录与配置卷。
1、执行完整命令:docker run -d --name openclaw -p 8000:8000 -v ~/openclaw-data:/app/data -e OPENCLAW_LOG_LEVEL=INFO ghcr.io/openclaw/openclaw:latest。
2、等待约 15 秒后,运行 docker logs openclaw | tail -n 5 查看初始化日志,确认出现 Uvicorn running on http://0.0.0.0:8000 字样。
3、在浏览器中访问 http://localhost:8000/docs,验证 FastAPI 文档界面是否正常加载。
五、运行 OpenClaw 容器(GPU 加速模式)
若宿主机配备 NVIDIA GPU 并已安装 nvidia-container-toolkit,可通过 --gpus 参数启用 CUDA 支持,显著提升模型推理性能。
1、确认驱动与工具链就绪:运行 nvidia-smi 输出 GPU 状态,再执行 docker info | grep -i runtime 验证 nvidia 为可用运行时。
2、启动带 GPU 支持的容器:docker run -d --name openclaw-gpu --gpus all -p 8000:8000 -v ~/openclaw-data:/app/data -e OPENCLAW_USE_CUDA=true ghcr.io/openclaw/openclaw:latest。
3、进入容器检查设备识别情况:docker exec openclaw-gpu nvidia-smi -L 应列出全部可见 GPU 设备编号。









