Skip to main content

Flowise 接入启航AI教程

教程说明

Flowise 支持在 ChatOpenAI 节点中配置自定义 Base Path,并可用于 OpenAI-compatible 服务。本教程只写当前可核实的接入方式。

适用形态

  • Flowise 本地部署
  • Flowise Docker 部署
  • Flowise 自托管实例

前置条件

  • 可访问的 Flowise 控制台
  • 启航AI API Key
  • 一个可用的 OpenAI-compatible 接口地址

官方支持的接入方式

官方文档支持在 ChatOpenAI 及相关自定义组件中使用 custom base URL 和 headers。做 RAG 或向量检索时,也需要单独配置 embedding 侧组件。

逐步配置

1. 打开 Flowise 画布

登录 Flowise 后,新建一个 chatflow。

2. 添加 ChatOpenAI 节点

从组件库拖入 ChatOpenAI 节点,作为对话模型。

3. 连接凭证

在节点里创建或选择 OpenAI 相关凭证,填写启航AI的 API Key。

4. 设置 Base Path

在节点的 Additional Parameters 中填写启航AI的 API 地址。若你的接口要求 /v1,按实际字段要求填写。

5. 如需使用自定义模型,改用 ChatOpenAI Custom

如果当前模型不在默认列表中,优先切换为 ChatOpenAI Custom,再手动填写模型 ID。

6. RAG 场景补充 embedding 配置

如果你的 flow 里有知识库或向量检索,还需要单独配置 OpenAI EmbeddingsOpenAI Embeddings Custom

7. 运行测试

连好 Chat Prompt、检索节点和输出节点后,运行一次最小链路,确认能正常返回结果。

验证是否接入成功

  • ChatOpenAI 节点不再报连接错误
  • 工作流能正常执行并返回回复
  • 如果配置了 embedding,向量化和检索步骤也能正常通过

常见问题

Q: 为什么在凭证里找不到 Base Path? A: Flowise 的关键配置通常在节点的 Additional Parameters 中,而不是只在凭证里统一填写。 Q: 为什么模型列表里没有启航AI的模型? A: 默认组件只显示内置列表时,改用 ChatOpenAI Custom 手动填写模型 ID。 Q: RAG 只能配 LLM 不配 embedding 吗? A: 不能。知识库和向量检索场景必须单独配置 embedding 侧组件。

官方参考链接

最后更新时间

2026-03-21