开始前的准备
在进入 AI 设置页之前,先确认下面这些准备项已经就绪。AI 聊天运行环境 和 应用构建器 都依赖 Vercel。| 准备项 | 是否必需 | 说明 |
|---|---|---|
| Vercel 账户 | 必需 | 需要一个可用的 Vercel 账户 |
| Vercel API 密钥 | 必需 | 用于 AI 聊天运行环境 |
| Team / Project | 必需 | 需要一个可用的 Team 和 Project;如果还没有,也可以在 Vercel 中创建 |
| AI Gateway API 密钥 | 使用 AI Gateway 时 | 只在选择 AI Gateway 作为模型接入方式时需要 |
| 公网访问 | 必需 | Teable 实例 和 对象存储(MinIO / S3) 需要被公网访问 |
| 项目 | 说明 |
|---|---|
| Vercel 基础费用 | 约为 $20/月,用于 App 部署和 AI 运行环境相关基础设施 |
| AI Gateway 模型调用费用 | 按实际调用量单独计费 |
配置步骤
建议按 待配置项 的顺序完成配置,先让必填项变绿,再去测试功能。很多“按钮是灰的”或“功能仍不可用”的情况,通常只是前置项还没完成。 建议按下面四步完成:1. 配置 LLM API
先在 LLM API 中选择模型接入方式。- AI Gateway(推荐)
- 自定义服务商
填写 AI Gateway API 密钥 后,点击 测试。测试通过后,再继续后面的步骤。
2. 配置推荐模型
这一步决定了用户可以选择哪些模型。建议先提供一组清晰的主力模型,方便用户按任务复杂度选择。一个常见的做法是:| 模型 | 适合场景 |
|---|---|
| Opus | 复杂任务和高质量输出 |
| Sonnet | 日常任务,兼顾效果和成本 |
| Haiku | 轻量任务和快速响应 |
3. 设置聊天模型
这里要为侧边栏 AI 对话 指定默认模型。这个模型需要从推荐模型列表中选择,所以如果这一步是灰的,通常说明前一步还没完成。 这里应选择支持工具调用、并且已经过测试的稳定模型,否则 Agent 能力会明显受限。4. 配置运行环境与应用构建器
先完成 AI 聊天运行环境,再完成 应用构建器。
如果你还需要自定义域名,或者你的服务器不能直接访问 Vercel API,可以再补充下面这些可选配置:
| 可选项 | 什么时候需要 |
|---|---|
| 自定义域名 | 需要把应用发布到自己的域名下 |
| Vercel API 代理地址 | 服务器不能直接访问 Vercel API,或需要通过代理、网关访问 |
常见问题
设置聊天模型是灰的
设置聊天模型是灰的
先回到上一步完成 配置推荐模型。聊天模型只能从推荐模型列表中选择。
明明填了 API Key,右侧还是没变绿
明明填了 API Key,右侧还是没变绿
先回看右侧 待配置项,确认缺的是哪一项。很多时候不是当前这一步没保存,而是前面的配置还没有补齐。
提示还缺少 Vercel Sandbox 配置
提示还缺少 Vercel Sandbox 配置
这通常表示 AI 聊天运行环境 还没完成。请确认下面三项都已经填写完成:
- Vercel API 密钥
- Team
- Project
出现 credit exceeded 报错
出现 credit exceeded 报错
先检查 Vercel 账户里的
Credit 或余额状态,必要时充值,并确认已经开启自动充值。如果使用 Vercel AI Gateway,AI 模型是否会处理我的数据
如果使用 Vercel AI Gateway,AI 模型是否会处理我的数据
如果你使用的是 Vercel AI Gateway,请求数据仍会发送到你选择的模型服务商进行处理,因此可能会涉及第三方服务商。如果你对数据安全和合规性有要求,可以在 Vercel AI Gateway 中开启下面这个选项:
- Only allow providers with Zero Data Retention (ZDR)
即使开启了 ZDR,请求仍然会发送到所选模型服务商处理;区别在于,范围会限制为支持零数据保留的服务商。

