Auto-GPT是开源自动化AI代理,支持五种部署方式:一、官方仓库克隆本地运行;二、一键安装脚本快速部署;三、Docker容器化运行;四、Ollama离线本地大模型支持;五、VSCode Dev Container开箱即用开发环境。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

Auto-GPT是一款基于大型语言模型的开源自动化AI代理,能够自主分解目标、调用工具、迭代执行多步骤任务而无需人工干预。如果您已具备基础开发环境但无法成功启动该代理,则可能是由于Python版本不兼容、依赖未正确安装或API密钥配置缺失所致。以下是多种可行的安装与使用路径:
一、通过官方仓库克隆并本地运行
此方法适用于希望完全控制运行环境、调试源码或启用自定义插件的用户。它直接拉取最新稳定分支代码,并在隔离虚拟环境中构建执行栈。
1、确认系统已安装Python 3.10–3.12:在终端中执行python --version,输出应为3.10.x、3.11.x或3.12.x。
2、安装Git并验证:执行git --version,确保返回不低于2.30的版本号。
3、克隆稳定分支仓库:执行git clone -b stable https://github.com/Significant-Gravitas/Auto-GPT.git。
4、进入项目目录:执行cd Auto-GPT。
5、创建并激活虚拟环境:Windows用户执行python -m venv venv && venv\Scripts\activate.bat;macOS/Linux用户执行python -m venv venv && source venv/bin/activate。
6、升级pip并安装依赖:依次执行python -m pip install --upgrade pip和pip install -r requirements.txt --retries 5 --timeout 60。
7、配置OpenAI API密钥:复制.env.template为.env,用文本编辑器打开,将密钥粘贴至OPENAI_API_KEY=等号后,不得添加空格、引号或换行。
二、使用一键安装脚本快速部署
该路径专为降低入门门槛设计,自动处理Python环境检测、依赖下载、权限配置及脚本生成,适合非开发者或希望跳过手动编译环节的用户。
1、访问项目根目录,确认存在installer/setup-autogpt.sh(macOS/Linux)或installer/setup-autogpt.bat(Windows)。
2、macOS/Linux用户在终端中执行:chmod +x installer/setup-autogpt.sh && ./installer/setup-autogpt.sh。
3、Windows用户双击运行installer/setup-autogpt.bat,等待命令行窗口自动完成全部配置步骤。
4、脚本运行结束后,在项目目录下检查是否生成.venv文件夹及可执行的autogpt命令。
5、直接运行autogpt启动交互式代理,首次运行时会提示输入目标描述。
三、借助Docker容器化运行
Docker方案通过预构建镜像封装所有依赖与运行时参数,彻底规避宿主机环境差异问题,适用于生产部署或需复现一致行为的场景。
1、安装Docker Desktop并确保服务正在运行,执行docker --version验证安装成功。
2、拉取官方维护的镜像:docker pull ghcr.io/significant-gravitas/auto-gpt:stable。
3、创建本地.env文件,填入有效OpenAI API密钥,保存路径为当前工作目录下的.env。
4、执行容器启动命令:docker run --rm -it --env-file .env -v $(pwd)/auto_gpt_workspace:/app/auto_gpt_workspace ghcr.io/significant-gravitas/auto-gpt:stable。
5、容器内将自动加载配置并进入Agent交互界面,所有生成文件默认持久化至宿主机./auto_gpt_workspace目录。
四、使用Ollama实现完全离线本地大模型支持
当网络受限、隐私要求极高或需避免API调用费用时,可通过Ollama在本地加载开源大模型替代OpenAI服务,实现端到端离线运行。
1、前往Ollama官网下载并安装对应系统版本,安装完成后执行ollama --version确认可用。
2、拉取兼容模型:执行ollama pull llama3(或其他AutoGPT支持的模型名,如mistral、phi3)。
3、修改AutoGPT配置文件autogpt_platform/autogpt_libs/auth/config.py,将AI服务提供商设为ollama。
4、在.env中设置OLLAMA_BASE_URL=http://localhost:11434,确保Ollama服务监听该地址。
5、启动AutoGPT时添加参数--ai-provider ollama,例如:python -m autogpt --ai-provider ollama --continuous。
五、通过VSCode Dev Container实现开箱即用开发环境
该方式面向已有VSCode编辑器的用户,利用Dev Container预置完整工具链与调试配置,支持断点调试、实时日志查看与一键启动,适合深入定制或二次开发。
1、在VSCode中打开Auto-GPT项目根目录,确保已安装Remote - Containers扩展。
2、按下Ctrl+Shift+P(Windows/Linux)或Cmd+Shift+P(macOS),输入并选择Remote-Containers: Reopen in Container。
3、VSCode将自动读取项目中的.devcontainer/devcontainer.json,拉取基础镜像并安装Python、Git、curl等必要组件。
4、容器启动后,在集成终端中执行pip install -r requirements.txt安装项目依赖。
5、复制并编辑.env文件,填入OpenAI API密钥后,点击VSCode侧边栏RUN AND DEBUG面板中的Launch AutoGPT配置即可启动。










