MuleRun集成超20个主流大模型,分文本、多模态、语音、代码四类,支持可视化下拉切换;模型能力边界实时提示;开发者可通过Model Bridge协议接入自定义OpenAI兼容模型。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您希望在MuleRun平台上调用特定AI能力,但不确定当前可用的模型选项或如何正确配置使用,则可能是由于未明确平台所集成的大模型清单及其接入方式。以下是MuleRun支持的AI模型列表及相关使用说明:
一、已集成的主流大模型
MuleRun原生接入超过20个国际主流大模型,所有模型均通过统一API网关调度,无需用户手动配置密钥或部署后端服务。模型按功能类型分组,全部运行于平台托管的云端虚拟机环境中。
1、文本生成类:ChatGPT(GPT-4 Turbo)、Claude 3.5 Sonnet、Gemini 2.5 Flash、Qwen3、DeepSeek-R1
2、多模态理解与生成类:Gemini 2.5 Flash Image(Nano Banana)、Kling、Ideogram 2.0、DALL·E 3、Stable Diffusion XL(via API封装)
3、语音与音频类:Whisper v3(转录)、ElevenLabs Real-time Voice、SunOwl TTS Pro
4、代码与逻辑类:CodeQwen2.5、Replit Code Llama 70B、StarCoder2 15B
二、模型选择与切换方式
用户在创建或编辑AI Agent时,可通过可视化下拉菜单指定底层执行模型。平台自动匹配任务类型推荐最优模型,例如图像生成任务默认启用Gemini 2.5 Flash Image,而长文档摘要则优先分配Claude 3.5 Sonnet。
1、进入Agent编辑页,点击“运行设置”区域
2、在“基础模型”选项中展开下拉列表
3、从分类标签页(文本/图像/语音/代码)中选取目标模型
4、保存配置后,该Agent后续所有调用将固定绑定所选模型
三、模型能力边界提示
部分模型存在输入长度、输出格式或资源配额限制,MuleRun会在Agent调试界面实时显示当前模型的能力约束。例如Gemini 2.5 Flash Image单次仅支持最多3张输入图+1280字符提示词,超出将触发自动截断并返回警告日志。
1、运行Agent前,查看右上角“能力卡片”图标
2、悬停鼠标可显示模型最大上下文长度、图像分辨率上限、每分钟调用限额
3、若调试失败,错误码“ERR_MODEL_LIMIT”即表示触发某项硬性边界
四、自定义模型接入路径
开发者可通过MuleRun提供的Model Bridge协议,将自有模型以标准OpenAI兼容接口形式注册进平台。该通道不对普通用户开放,仅限通过审核的创作者账户使用,且须通过沙箱环境安全检测。
1、登录mulerun.com后进入“Creator Console”
2、选择“Model Integration”→“Register New Endpoint”
3、填写符合OpenAI v1 API规范的URL、认证头字段及健康检查路径
4、提交后等待平台自动完成连通性测试与负载压力评估










