Flowise 接入启航AI教程
教程说明
Flowise 支持在ChatOpenAI 节点中配置自定义 Base Path,并可用于 OpenAI-compatible 服务。本教程只写当前可核实的接入方式。
适用形态
- Flowise 本地部署
- Flowise Docker 部署
- Flowise 自托管实例
前置条件
- 可访问的 Flowise 控制台
- 启航AI API Key
- 一个可用的 OpenAI-compatible 接口地址
官方支持的接入方式
官方文档支持在ChatOpenAI 及相关自定义组件中使用 custom base URL 和 headers。做 RAG 或向量检索时,也需要单独配置 embedding 侧组件。
逐步配置
1. 打开 Flowise 画布
登录 Flowise 后,新建一个 chatflow。2. 添加 ChatOpenAI 节点
从组件库拖入 ChatOpenAI 节点,作为对话模型。
3. 连接凭证
在节点里创建或选择 OpenAI 相关凭证,填写启航AI的 API Key。4. 设置 Base Path
在节点的 Additional Parameters 中填写启航AI的 API 地址。若你的接口要求 /v1,按实际字段要求填写。
5. 如需使用自定义模型,改用 ChatOpenAI Custom
如果当前模型不在默认列表中,优先切换为 ChatOpenAI Custom,再手动填写模型 ID。
6. RAG 场景补充 embedding 配置
如果你的 flow 里有知识库或向量检索,还需要单独配置OpenAI Embeddings 或 OpenAI Embeddings Custom。
7. 运行测试
连好Chat Prompt、检索节点和输出节点后,运行一次最小链路,确认能正常返回结果。
验证是否接入成功
ChatOpenAI节点不再报连接错误- 工作流能正常执行并返回回复
- 如果配置了 embedding,向量化和检索步骤也能正常通过
常见问题
Q: 为什么在凭证里找不到 Base Path? A: Flowise 的关键配置通常在节点的Additional Parameters 中,而不是只在凭证里统一填写。
Q: 为什么模型列表里没有启航AI的模型?
A: 默认组件只显示内置列表时,改用 ChatOpenAI Custom 手动填写模型 ID。
Q: RAG 只能配 LLM 不配 embedding 吗?
A: 不能。知识库和向量检索场景必须单独配置 embedding 侧组件。