/v1/models
获取当前令牌可见模型列表。建议接入方启动时拉取一次,用于判断模型是否可用。
{
"object": "list",
"data": [
{
"id": "gpt-image-2",
"object": "model"
}
]
}
Quick Start
调用模型接口时使用 SiphonLab API Key。令牌需要勾选对应模型分组,否则会返回权限或分组不可用错误。
https://siphonlab.cn
Authorization: Bearer sk-xxxx
除图片文件下载外,模型接口默认使用 application/json。
页面展示价仅供接入前评估,最终以控制台用量日志为准。
/v1/models
获取当前令牌可见模型列表。建议接入方启动时拉取一次,用于判断模型是否可用。
{
"object": "list",
"data": [
{
"id": "gpt-image-2",
"object": "model"
}
]
}
CLI Config
CC Switch 可用于统一管理 Claude Code、Codex、Gemini CLI、OpenCode、OpenClaw 等 CLI 工具的模型服务配置。
需要在多个 CLI 工具中复用 SiphonLab 的 API Base、API Key 和模型配置。
切换配置后,按对应 CLI 工具要求重启终端或重新打开会话。
| 场景 | 配置项 | 填写内容 |
|---|---|---|
| OpenAI 兼容 CLI | Base URL | https://siphonlab.cn/v1 |
| Gemini CLI | Base URL | https://siphonlab.cn |
| 所有 CLI | API Key | 填写 SiphonLab 控制台创建的 sk-xxxx。 |
| Codex | Model | 常用 gpt-5.4、gpt-5.5。 |
| Gemini CLI | Model | 例如 gemini-3-pro-image-preview。 |
| 保存后 | 启用配置 | 选择要写入配置的 CLI 工具,然后启用当前配置;必要时重启终端或 CLI 会话。 |
# OpenAI 兼容 CLI
Base URL: https://siphonlab.cn/v1
API Key: sk-xxxx
Model: gpt-5.4
# Gemini CLI
Base URL: https://siphonlab.cn
API Key: sk-xxxx
Model: gemini-3-pro-image-preview
Business
我们为企业团队和高用量用户提供更稳定的协作支持,帮助业务更平滑地接入模型能力。
企业合作用户可获得更明确的沟通链路,问题定位和处理会更集中。
提供更高优先级的客服支持,适合生产业务、团队协作和持续用量场景。
对稳定性、模型接入、价格疑问和异常账单等问题提供优先处理。
企业合作或月消费达到 1w 以上的用户,可联系平台评估专属方案;优惠以赠送平台额度的形式体现。
Policy
充值前请优先使用体验额度完成模型、速度、稳定性和价格验证。确认体验满意后,再进行正式充值。
若非平台政策调整、平台运营问题或平台侧服务异常导致的可核实影响,充值后原则上不支持退款。 用户应在充值前自行完成接口联调、模型效果测试、业务兼容性验证和成本评估。
如遇到疑似平台侧异常,请保留请求时间、模型名、请求路径、错误信息和用量日志截图,联系客服核查。
Models
| 分组 | 模型 | 说明 |
|---|---|---|
grok |
grok-4.20-0309-supergrok-4.20-0309-reasoning-super |
聊天模型。 |
满血codex |
gpt-5.4gpt-5.5 |
适合 Codex 和长上下文任务。 |
gpt-image-2负载均衡gpt-image-2并发率低 |
gpt-image-2 |
单次仅保证返回 1 张图片,请设置 n=1。 |
gemini-3-pro-image-preview |
gemini-3-pro-image-preview |
支持 Gemini 原生格式和 OpenAI 兼容聊天格式。 |
gemini-3.1-flash-image-preview |
gemini-3.1-flash-image-preview |
图片生成模型。 |
公益 |
gemini-2.5-flashgemini-3-flash-previewgrok-3grok-4grok-4.1-fast |
轻量文本任务。 |
Chat Model
grok-4.20-0309-super、grok-4.20-0309-reasoning-super
| 方法 | 路径 | Content-Type | 说明 |
|---|---|---|---|
| POST | /v1/chat/completions | application/json | OpenAI Chat Completions 兼容格式。 |
| 字段 | 类型 | 必填 | 说明 |
|---|---|---|---|
model | string | 是 | 填写本模型名之一。 |
messages | array | 是 | 消息数组,支持 system/user/assistant。 |
stream | boolean | 否 | 是否使用 SSE 流式返回。 |
temperature | number | 否 | 采样温度。 |
max_tokens | number | 否 | 最大输出 token 数。 |
{
"model": "grok-4.20-0309-super",
"messages": [
{"role": "user", "content": "用三句话介绍 SiphonLab"}
],
"stream": false
}
{
"id": "chatcmpl_xxx",
"object": "chat.completion",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "..."
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 12,
"completion_tokens": 24,
"total_tokens": 36
}
}
Responses Model
gpt-5.4、gpt-5.5
| 方法 | 路径 | Content-Type | 说明 |
|---|---|---|---|
| POST | /v1/responses | application/json | Responses API 兼容格式。 |
| POST | /v1/responses/compact | application/json | 长上下文压缩场景。 |
| 字段 | 类型 | 必填 | 说明 |
|---|---|---|---|
model | string | 是 | gpt-5.4 或 gpt-5.5。 |
input | string | array | 是 | 输入文本或消息数组。 |
instructions | string | 否 | 系统级指令。 |
stream | boolean | 否 | 是否使用 SSE 流式返回。 |
reasoning | object | 否 | 如需控制推理强度,可按兼容格式传入。 |
{
"model": "gpt-5.4",
"input": "写一个 TypeScript 函数,把字符串数组去重并排序。",
"stream": false
}
{
"id": "resp_xxx",
"object": "response",
"status": "completed",
"output": [
{
"type": "message",
"role": "assistant",
"content": [
{
"type": "output_text",
"text": "..."
}
]
}
],
"usage": {
"input_tokens": 120,
"output_tokens": 300,
"total_tokens": 420
}
}
Image Model
gpt-image-2
n=1。如果调用方传入 n>1,平台不保证返回多张图片,费用可能按请求张数计算。
| 方法 | 路径 | Content-Type | 说明 |
|---|---|---|---|
| POST | /v1/images/generations | application/json | 文生图;也支持通过图片 data URL 作为参考图输入。 |
| 字段 | 类型 | 必填 | 说明 |
|---|---|---|---|
model | string | 是 | 固定为 gpt-image-2。 |
prompt | string | 是 | 图片提示词。 |
size | string | 否 | 常用值:1024x1024、1536x1024、1024x1536、2048x2048、3840x2160、2160x3840。 |
n | number | 否 | 请固定为 1。 |
response_format | string | 否 | 推荐 b64_json。 |
images | array | 否 | 参考图输入,使用 images[].image_url 传 data URL。 |
stream | boolean | 否 | 当前不建议使用。图片接口以完整响应为准。 |
{
"model": "gpt-image-2",
"prompt": "一只穿宇航服的小猪,站在月球表面,电影级光影,高细节",
"size": "3840x2160",
"n": 1,
"response_format": "b64_json"
}
{
"model": "gpt-image-2",
"prompt": "将背景换成太空,保留主体形态和毛茸茸质感",
"size": "3840x2160",
"n": 1,
"response_format": "b64_json",
"images": [
{
"image_url": "data:image/png;base64,iVBORw0KGgo..."
}
]
}
{
"created": 1777132800,
"data": [
{
"b64_json": "...",
"revised_prompt": "..."
}
]
}
Image Model
gemini-3-pro-image-preview
| 方法 | 路径 | Content-Type | 说明 |
|---|---|---|---|
| POST | /v1beta/models/gemini-3-pro-image-preview:generateContent | application/json | Gemini 原生 generateContent 格式。 |
| POST | /v1/chat/completions | application/json | OpenAI Chat Completions 兼容格式。 |
| 字段 | 类型 | 必填 | 说明 |
|---|---|---|---|
model | string | 是 | 固定为 gemini-3-pro-image-preview。 |
messages | array | 是 | OpenAI Chat Completions 消息数组。 |
stream | boolean | 否 | 是否使用 SSE 流式返回。 |
| 字段 | 类型 | 必填 | 说明 |
|---|---|---|---|
contents | array | 是 | 输入内容数组。 |
contents[].role | string | 否 | 常用 user。 |
contents[].parts | array | 是 | 文本或图片输入片段。 |
generationConfig | object | 否 | 生成配置,如温度、最大输出等。 |
{
"contents": [
{
"role": "user",
"parts": [
{
"text": "生成一张科技产品发布会海报,深色背景,主体清晰。"
}
]
}
]
}
{
"candidates": [
{
"content": {
"role": "model",
"parts": [
{
"text": "..."
}
]
},
"finishReason": "STOP"
}
],
"usageMetadata": {
"promptTokenCount": 32,
"candidatesTokenCount": 128,
"totalTokenCount": 160
}
}
{
"model": "gemini-3-pro-image-preview",
"messages": [
{
"role": "user",
"content": "生成一张科技产品发布会海报,深色背景,主体清晰。"
}
],
"stream": false
}
{
"id": "chatcmpl_xxx",
"object": "chat.completion",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "..."
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 32,
"completion_tokens": 128,
"total_tokens": 160
}
}
Image Model
gemini-3.1-flash-image-preview
| 方法 | 路径 | Content-Type | 说明 |
|---|---|---|---|
| POST | /v1/images/generations | application/json | 图片生成接口。 |
| 字段 | 类型 | 必填 | 说明 |
|---|---|---|---|
model | string | 是 | 固定为 gemini-3.1-flash-image-preview。 |
prompt | string | 是 | 图片提示词。 |
size | string | 否 | 建议按控制台支持的尺寸传入。 |
response_format | string | 否 | 推荐 b64_json。 |
{
"model": "gemini-3.1-flash-image-preview",
"prompt": "一张电商主图,白底,产品居中,细节清晰",
"size": "1024x1024",
"response_format": "b64_json"
}
{
"created": 1777132800,
"data": [
{
"b64_json": "..."
}
]
}
Public Group
gemini-2.5-flash、gemini-3-flash-preview、grok-3、grok-4、grok-4.1-fast
| 方法 | 路径 | Content-Type | 说明 |
|---|---|---|---|
| POST | /v1/chat/completions | application/json | OpenAI Chat Completions 兼容格式。 |
| 字段 | 类型 | 必填 | 说明 |
|---|---|---|---|
model | string | 是 | 填写当前开放的公益模型名。 |
messages | array | 是 | 消息数组。 |
stream | boolean | 否 | 是否使用 SSE 流式返回。 |
{
"model": "gemini-2.5-flash",
"messages": [
{"role": "user", "content": "总结这段文本的重点。"}
],
"stream": false
}
{
"id": "chatcmpl_xxx",
"object": "chat.completion",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "..."
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 20,
"completion_tokens": 80,
"total_tokens": 100
}
}
Pricing
定价接口用于展示模型价格、可用分组和支持的接口类型。实际扣费以用量日志为准。
/api/pricing
| 字段 | 说明 |
|---|---|
data[] | 模型定价列表。 |
group_ratio | 分组倍率映射。 |
usable_group | 分组说明映射。 |
supported_endpoint | 接口类型到路径的映射。 |
Errors
模型接口尽量保持 OpenAI 兼容错误结构。接入方应读取 HTTP 状态码和 error.code 做重试或提示。
| 状态码 | 常见含义 | 建议处理 |
|---|---|---|
400 | 参数格式错误、模型不支持该参数。 | 检查请求字段、模型名和对应模型说明。 |
401 | API Key 无效或缺失。 | 检查 Authorization Header。 |
403 | 令牌未勾选对应分组或权限不足。 | 在控制台确认分组权限。 |
429 | 限速、排队过多或余额不足。 | 降低并发、稍后重试或检查余额。 |
500/502/504/524 | 服务处理失败或请求耗时过长。 | 建议退避重试;图片 4K 任务不要高并发压测。 |
{
"error": {
"message": "bad response status code 524",
"type": "bad_response_status_code",
"param": "",
"code": "bad_response_status_code"
}
}
FAQ
n=1?gpt-image-2 当前单次请求仅保证返回 1 张图片。传入 n>1 时,平台不保证返回多张图片,费用也可能按请求张数计算。请按文档固定传 n=1。
gpt-image-2 使用相同提示词并发请求即可。例如想一次性生成 4 张照片,就发起 4 次并发请求,每次请求都设置 n=1。
当前图片接口以完整响应为准,不建议传 stream=true。4K 图片生成可能耗时较长,调用方应设置足够的读取超时时间。
gpt-image-2 可在 /v1/images/generations 请求中传 images[].image_url,值为 data:image/png;base64,... 格式。
4K 图片计算量大,且容易出现排队。建议业务侧降低并发、设置较长超时,并在用户界面提示生成中状态。
在控制台创建或编辑令牌时勾选对应分组。模型请求会根据令牌分组权限进行校验。