入门指南/配置 AI 模型

1.6 配置 AI 模型

AI Copilot 是 Pop 的核心功能,为文档问答、知识库检索、工作流节点、应用输出等模块提供智能支持。本章节将帮助你完成 AI 模型的添加与配置。


🤖 1. Pop 支持哪些模型?

Pop 支持所有兼容 OpenAI API 的模型,包括:

模型服务商 示例模型 特点
OpenAI gpt-4o, gpt-4o-mini 稳定、全能、行业标准
DeepSeek deepseek-chat, deepseek-reasoner 中文能力强、性价比高
Moonshot(Kimi) moonshot-v1 中文长文本强
OneAPI / 自建模型网关 任意自定义模型 私有化部署
本地模型服务 LM Studio / Ollama 離线+隐私更强

💡 在企业环境中,可通过 OneAPI 聚合管理 AI 模型,统一权限与计费。


🔧 2. 如何添加一个模型?

进入:
系统设置 → AI 模型 → 添加模型

你会看到以下字段:

字段 说明
名称 任意起名,如 “DeepSeek 主模型”
Base URL 模型 API 地址,如 https://api.deepseek.com/v1
API Key 你的模型密钥
模型名称 例如:deepseek-chat
最大 Token 限制输出长度
Timeout 超时控制(可选)
是否设为默认 决定全局 Copilot 使用哪个模型

📌 3. 配置示例(常见模型)

OpenAI 示例

Base URL: https://api.openai.com/v1
模型名称: gpt-4o
API Key: sk-xxxxx

DeepSeek 示例

Base URL: https://api.deepseek.com
模型名称: deepseek-chat
API Key: sk-xxxxx

OneAPI 示例

Base URL: https://api.xxx.com/v1
模型名称: 任意模型名称

🧪 4. 测试模型连接

填写完成后点击「测试连接」按钮。

  • 若成功 → 会显示模型列表或成功提示
  • 若失败 → 请检查:
可能原因 检查项
BaseURL 错误 是否包含 /v1、是否为 HTTPS
网络问题 需确认代理、VPN、公司网络限制
Key 失效 是否填错、是否过期
模型名称不支持 可通过测试按钮查询支持列表

⚠️ 若你使用代理访问外网,请在系统设置中配置 HTTP/HTTPS 代理。


🎯 5. 为不同模块选择不同模型

Pop 支持为不同用途选择不同模型:

模块 建议模型 原因
文档问答 gpt-4o / deepseek-chat 理解能力强
知识库召回 deepseek / moonshot 生成简洁准确
工作流 AI 节点 gpt-4o-mini / 自建模型 便宜稳定
应用输出 根据场景选择 需平衡消耗和质量

🛠 6. 高级配置(可选)

① 自定义 Header

适用于企业网关、鉴权系统:

{
  "X-User-ID": "123",
  "X-Dept": "AI"
}

② 限制最大并发请求

可避免模型服务被打挂。

③ 覆盖系统提示词(System Prompt)

适合构建专业领域 AI:

  • 法律咨询
  • 医疗问答
  • 游戏策划助手
  • 客服回复生成

🔚 小结

完成模型配置后,你可以立即体验:

  • 文档中的 AI 解读
  • 知识库问答
  • Copilot 对话
  • 工作流 AI 节点运行
  • 应用的 AI 输出

下一步,我们将学习如何导入你的第一份文档。