Flowise提供拖拽式AI工作流搭建方法:启动服务后创建新流程,拖入Chat Input、Chroma、OpenAI、Chat Output节点,按数据流向连接端口,配置API密钥、模型等参数,最后保存并用内置聊天窗口测试。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您希望在无需编写代码的情况下构建AI工作流,Flowise提供了一套直观的拖拽式界面来连接各类节点。以下是使用Flowise拖拽搭建AI流程的具体操作方法:
一、启动Flowise服务并进入可视化编辑界面
Flowise需先运行本地服务,才能通过浏览器访问其图形化流程编辑器。启动后,系统默认提供一个空白画布,所有节点均以可拖拽组件形式呈现,便于按逻辑顺序构建处理链路。
1、在终端中执行 npm run start 或 docker run -p 3000:3000 flowiseai/flowise 启动服务。
2、打开浏览器,访问 http://localhost:3000 进入主界面。
3、点击左上角 “+ New Flow” 按钮,创建一个新流程画布。
二、从组件库拖拽添加基础节点
Flowise将AI流程拆解为功能明确的节点类型,如用户输入、LLM调用、向量检索、输出响应等。每个节点代表一个独立处理单元,拖入画布后可配置参数并建立连接。
1、在左侧组件面板中,找到 “Chat Models” 分类,将 OpenAI 节点拖至画布中央。
2、在 “Vector Stores” 分类中,拖入 Chroma 节点,并确保其已配置好嵌入模型与持久化路径。
3、从 “Input/Output” 分类拖入 “Chat Input” 和 “Chat Output” 节点,分别作为流程起点与终点。
三、连接节点形成数据流向
节点间通过连线定义数据传递路径,连线方向决定执行顺序。只有具备兼容输入/输出接口的端口才能成功连接,系统会实时校验端口类型匹配性。
1、将 “Chat Input” 节点的 “message” 输出端口,拖拽至 Chroma 节点的 “query” 输入端口。
2、将 Chroma 节点的 “retrievedDocs” 输出端口,连接至 OpenAI 节点的 “context” 输入字段。
3、将 OpenAI 节点的 “output” 端口,连接至 “Chat Output” 节点的 “response” 输入端口。
四、配置各节点关键参数
每个节点默认使用基础设置,但实际运行需根据目标模型、API密钥及业务需求调整核心参数。未正确配置会导致流程中断或返回空结果。
1、双击 OpenAI 节点,在弹出面板中填入 “API Key”(可从环境变量或直接输入),并选择模型如 gpt-3.5-turbo。
2、双击 Chroma 节点,设置 “Collection Name” 并确认嵌入模型(如 text-embedding-ada-002)已正确关联。
3、选中 Chat Input 节点,在右侧属性栏勾选 “Use as chat input”,确保其能接收多轮对话历史。
五、保存并测试流程运行效果
保存后的流程可立即部署为API端点或嵌入到前端界面。测试阶段可通过内置聊天窗口发送消息,实时观察各节点输出与最终响应内容,验证数据是否按预期流转。
1、点击右上角 “Save Flow” 按钮,输入流程名称(如 qa-bot-flow)并确认保存。
2、点击顶部导航栏的 “Chat” 标签,进入该流程专属测试界面。
3、在输入框中发送问题(如 “公司休假政策有哪些?”),观察右侧是否返回基于知识库生成的准确回答。










