完整的 API 接口文档,帮助你快速接入 15code 服务
15code 是一个一站式 API 转发平台,提供 OpenAI 和 Anthropic 两种协议接口,让你可以通过统一的接口访问 GPT、Claude、GLM 等顶级大模型。
我们完全兼容 OpenAI 和 Anthropic 的官方 API 格式,你只需要将 base_url 改为我们的地址,即可无缝切换,无需修改任何代码。
兼容 OpenAI API 格式,支持 GPT-5.x、GLM 系列模型。适用于 ChatGPT、GPT-5.4、Codex 等场景。
兼容 Anthropic API 格式,支持 Claude Opus、Sonnet、Haiku 系列模型。适用于 Claude Code、Claude API 等场景。
注册账号后,在 Dashboard 页面即可获取你的 API Key。每个用户可以创建多个 Key,方便管理不同项目。
使用 Authorization Bearer 头传递 API Key:
使用 x-api-key 头传递 API Key:
同时需要设置 anthropic-version 头:
| 参数 | 类型 | 必填 | 默认值 | 说明 |
|---|---|---|---|---|
| model | string | 必填 | - | 模型名称,如 gpt-5.4, glm-5 |
| messages | array | 必填 | - | 对话消息数组,包含 role 和 content |
| max_tokens | int | 可选 | 自动 | 最大输出 tokens 数 |
| temperature | float | 可选 | 1 | 随机性控制 (0-2),越高越随机 |
| top_p | float | 可选 | 1 | 核采样参数 (0-1) |
| stream | boolean | 可选 | false | 是否流式返回 |
| stop | string/array | 可选 | - | 停止词,遇到即停止生成 |
| 参数 | 类型 | 必填 | 默认值 | 说明 |
|---|---|---|---|---|
| model | string | 必填 | - | 模型名称,如 claude-sonnet-4-20250514 |
| max_tokens | int | 必填 | - | 最大输出 tokens 数(必填) |
| messages | array | 必填 | - | 对话消息数组 |
| system | string | 可选 | - | 系统提示词 |
| temperature | float | 可选 | 1 | 随机性控制 (0-1) |
| stream | boolean | 可选 | false | 是否流式返回 |
| 错误码 | 说明 | 解决方案 |
|---|---|---|
| 400 | 请求参数错误 | 检查参数格式和必填字段 |
| 401 | 认证失败 | 检查 API Key 是否正确 |
| 403 | 权限不足 | 检查账号余额或访问权限 |
| 404 | 模型不存在 | 检查模型名称是否正确 |
| 429 | 请求过于频繁 | 降低请求频率,稍后重试 |
| 500 | 服务器错误 | 稍后重试,或联系客服 |
| 503 | 服务暂不可用 | 模型负载过高,稍后重试 |
每个 API Key 有速率限制,具体取决于你的套餐等级。如果超过限制,会返回 429 错误。
每个模型有不同的 context window(上下文窗口)限制:
| 模型 | 上下文窗口 | 最大输出 |
|---|---|---|
| Claude Opus 4.7 | 1,000,000 tokens | 128,000 tokens |
| Claude Sonnet 4.6 | 1,000,000 tokens | 128,000 tokens |
| GPT-5.4 | 128,000 tokens | 16,000 tokens |
| GLM-5 | 200,000 tokens | 65,000 tokens |
对于重复使用的系统提示词或上下文,使用 prompt caching 可以节省 90% 的输入成本。
对于 429、503 等临时错误,实现指数退避重试机制:
每次请求返回 usage 字段,记录输入输出 tokens,帮助你监控消耗:
不要在代码中硬编码 API Key,使用环境变量或配置文件: