clawdbot前端“连接超时”需依次排查:一、确认ollama服务运行及11434端口连通;二、配置nginx反向代理并启用长连接;三、用ollama_vram_limit与num_gpu双控参数启动大模型;四、切换阿里云moltbot官方镜像;五、校正.env.local中api_base地址。

如果您启动Clawdbot后前端界面持续显示“连接超时”,无法与后端模型服务通信,则很可能是Ollama网关响应失败或代理层中断所致。以下是解决此问题的步骤:
一、检查Ollama服务状态与端口连通性
该步骤用于确认Ollama后台进程是否正常运行,以及默认HTTP服务端口11434是否被占用或阻塞。Clawdbot依赖该端口与Ollama建立基础通信,若服务未就绪或端口不可达,将直接触发前端连接超时。
1、在终端中执行 ollama serve 命令,观察输出是否显示 "Listening on 127.0.0.1:11434";
2、新开终端窗口,运行 curl -v http://localhost:11434/api/tags,确认返回HTTP 200及JSON格式模型列表;
3、若返回 Failed to connect to localhost port 11434,说明Ollama进程未启动或被防火墙拦截。
二、配置Nginx反向代理并启用长连接支持
原生Ollama HTTP服务缺乏对Web长连接与高延迟请求的健壮处理能力,Clawdbot前端发起流式响应请求时易被Nginx默认超时策略中断。通过显式配置proxy_read_timeout等参数可稳定通信链路。
1、编辑Nginx配置文件:sudo nano /etc/nginx/sites-available/clawdbot;
2、在location /api/块内添加以下四行关键指令:proxy_read_timeout 300; proxy_send_timeout 300; proxy_buffering off; proxy_http_version 1.1;;
3、执行 sudo nginx -t && sudo systemctl reload nginx 验证并重载配置。
三、启用OLLAMA_VRAM_LIMIT与num_gpu双控参数启动模型
当Qwen3:32B加载过程中因显存溢出导致Ollama服务崩溃或响应停滞,Clawdbot将收不到任何ACK信号,表现为静默超时。该方法通过限制GPU资源分配确保服务进程持续存活。
1、先卸载已加载失败的模型:ollama rm qwen3:32b;
2、使用显式内存上限启动:OLLAMA_NUM_GPU=1 OLLAMA_VRAM_LIMIT=20000000000 ollama run qwen3:32b;
3、观察终端输出是否出现 "models/qwen3:32b is ready" 及后续token生成日志,而非立即退出。
四、切换至阿里云Moltbot官方镜像一键部署方案
本地环境复杂度高、依赖冲突频发是超时问题的深层诱因。阿里云轻量应用服务器提供的Moltbot(原Clawdbot)预装镜像已内置百炼千问模型通道、钉钉消息桥接及Nginx优化配置,完全规避Ollama网关层故障风险。
1、访问阿里云轻量应用服务器控制台,搜索并选择 "Moltbot官方镜像";
2、创建实例时勾选 "自动配置百炼模型API密钥" 与 "启用钉钉Webhook通道";
3、实例启动后,直接访问 http://[公网IP]:3000 即可进入已联通模型的Clawdbot Web界面。
五、验证Clawdbot环境变量中的API_BASE地址配置
Clawdbot客户端通过ENV变量API_BASE指定后端接口地址,若该值仍为默认的http://localhost:11434而实际服务运行在远程服务器或经Nginx代理后端口变更,会导致请求发往错误目标并超时。
1、进入Clawdbot项目根目录,打开 .env.local 文件;
2、将 API_BASE=http://localhost:11434 修改为实际可达地址,例如 API_BASE=https://your-domain.com/api;
3、重启Clawdbot前端服务:npm run dev 或重新构建Docker容器。










