SiphonLab 接口文档

docx.siphonlab.cn

SiphonLab OpenAI 兼容接口文档

SiphonLab 是一个为开发者和团队准备的模型接入平台。我们把模型调用、分组权限、价格展示和用量记录收拢到统一入口, 让个人项目可以快速开始,也让团队协作时更容易管理成本和权限。平台目前服务活跃个人开发者 600+,企业级合作 3+; 团队保持精干,但会把稳定性、响应速度和长期服务能力放在优先级前面。

查看模型支持 返回官网

Quick Start

快速接入

调用模型接口时使用 SiphonLab API Key。令牌需要勾选对应模型分组,否则会返回权限或分组不可用错误。

基础地址

https://siphonlab.cn

鉴权 Header

Authorization: Bearer sk-xxxx

请求格式

除图片文件下载外,模型接口默认使用 application/json

价格口径

页面展示价仅供接入前评估,最终以控制台用量日志为准。

GET /v1/models

获取当前令牌可见模型列表。建议接入方启动时拉取一次,用于判断模型是否可用。

{
  "object": "list",
  "data": [
    {
      "id": "gpt-image-2",
      "object": "model"
    }
  ]
}

CLI Config

CC Switch 配置

CC Switch 可用于统一管理 Claude Code、Codex、Gemini CLI、OpenCode、OpenClaw 等 CLI 工具的模型服务配置。

适用场景

需要在多个 CLI 工具中复用 SiphonLab 的 API Base、API Key 和模型配置。

生效方式

切换配置后,按对应 CLI 工具要求重启终端或重新打开会话。

推荐配置方式

场景配置项填写内容
OpenAI 兼容 CLIBase URLhttps://siphonlab.cn/v1
Gemini CLIBase URLhttps://siphonlab.cn
所有 CLIAPI Key填写 SiphonLab 控制台创建的 sk-xxxx
CodexModel常用 gpt-5.4gpt-5.5
Gemini CLIModel例如 gemini-3-pro-image-preview
保存后启用配置选择要写入配置的 CLI 工具,然后启用当前配置;必要时重启终端或 CLI 会话。
# OpenAI 兼容 CLI
Base URL: https://siphonlab.cn/v1
API Key: sk-xxxx
Model: gpt-5.4

# Gemini CLI
Base URL: https://siphonlab.cn
API Key: sk-xxxx
Model: gemini-3-pro-image-preview

Business

企业合作与高用量支持

我们为企业团队和高用量用户提供更稳定的协作支持,帮助业务更平滑地接入模型能力。

更好的服务响应

企业合作用户可获得更明确的沟通链路,问题定位和处理会更集中。

VIP 级客服

提供更高优先级的客服支持,适合生产业务、团队协作和持续用量场景。

更优先的支持度

对稳定性、模型接入、价格疑问和异常账单等问题提供优先处理。

更低的价格

企业合作或月消费达到 1w 以上的用户,可联系平台评估专属方案;优惠以赠送平台额度的形式体现。

Policy

退款政策

充值前请优先使用体验额度完成模型、速度、稳定性和价格验证。确认体验满意后,再进行正式充值。

若非平台政策调整、平台运营问题或平台侧服务异常导致的可核实影响,充值后原则上不支持退款。 用户应在充值前自行完成接口联调、模型效果测试、业务兼容性验证和成本评估。

如遇到疑似平台侧异常,请保留请求时间、模型名、请求路径、错误信息和用量日志截图,联系客服核查。

Models

模型与分组

分组 模型 说明
grok grok-4.20-0309-super
grok-4.20-0309-reasoning-super
聊天模型。
满血codex gpt-5.4
gpt-5.5
适合 Codex 和长上下文任务。
gpt-image-2负载均衡
gpt-image-2并发率低
gpt-image-2 单次仅保证返回 1 张图片,请设置 n=1
gemini-3-pro-image-preview gemini-3-pro-image-preview 支持 Gemini 原生格式和 OpenAI 兼容聊天格式。
gemini-3.1-flash-image-preview gemini-3.1-flash-image-preview 图片生成模型。
公益 gemini-2.5-flash
gemini-3-flash-preview
grok-3
grok-4
grok-4.1-fast
轻量文本任务。

Chat Model

Grok 4.20

grok-4.20-0309-supergrok-4.20-0309-reasoning-super

返回模型表

支持接口请求路径

方法路径Content-Type说明
POST/v1/chat/completionsapplication/jsonOpenAI Chat Completions 兼容格式。

请求字段表

字段类型必填说明
modelstring填写本模型名之一。
messagesarray消息数组,支持 system/user/assistant。
streamboolean是否使用 SSE 流式返回。
temperaturenumber采样温度。
max_tokensnumber最大输出 token 数。
{
  "model": "grok-4.20-0309-super",
  "messages": [
    {"role": "user", "content": "用三句话介绍 SiphonLab"}
  ],
  "stream": false
}

响应内容

{
  "id": "chatcmpl_xxx",
  "object": "chat.completion",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "..."
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 12,
    "completion_tokens": 24,
    "total_tokens": 36
  }
}

Responses Model

GPT / Codex

gpt-5.4gpt-5.5

返回模型表

支持接口请求路径

方法路径Content-Type说明
POST/v1/responsesapplication/jsonResponses API 兼容格式。
POST/v1/responses/compactapplication/json长上下文压缩场景。

请求字段表

字段类型必填说明
modelstringgpt-5.4gpt-5.5
inputstring | array输入文本或消息数组。
instructionsstring系统级指令。
streamboolean是否使用 SSE 流式返回。
reasoningobject如需控制推理强度,可按兼容格式传入。
{
  "model": "gpt-5.4",
  "input": "写一个 TypeScript 函数,把字符串数组去重并排序。",
  "stream": false
}

响应内容

{
  "id": "resp_xxx",
  "object": "response",
  "status": "completed",
  "output": [
    {
      "type": "message",
      "role": "assistant",
      "content": [
        {
          "type": "output_text",
          "text": "..."
        }
      ]
    }
  ],
  "usage": {
    "input_tokens": 120,
    "output_tokens": 300,
    "total_tokens": 420
  }
}

Image Model

GPT Image 2

gpt-image-2

返回模型表
当前单次请求仅保证返回 1 张图片,请设置 n=1。如果调用方传入 n>1,平台不保证返回多张图片,费用可能按请求张数计算。

支持接口请求路径

方法路径Content-Type说明
POST/v1/images/generationsapplication/json文生图;也支持通过图片 data URL 作为参考图输入。

请求字段表

字段类型必填说明
modelstring固定为 gpt-image-2
promptstring图片提示词。
sizestring常用值:1024x10241536x10241024x15362048x20483840x21602160x3840
nnumber请固定为 1
response_formatstring推荐 b64_json
imagesarray参考图输入,使用 images[].image_url 传 data URL。
streamboolean当前不建议使用。图片接口以完整响应为准。

文生图请求示例

{
  "model": "gpt-image-2",
  "prompt": "一只穿宇航服的小猪,站在月球表面,电影级光影,高细节",
  "size": "3840x2160",
  "n": 1,
  "response_format": "b64_json"
}

参考图请求示例

{
  "model": "gpt-image-2",
  "prompt": "将背景换成太空,保留主体形态和毛茸茸质感",
  "size": "3840x2160",
  "n": 1,
  "response_format": "b64_json",
  "images": [
    {
      "image_url": "data:image/png;base64,iVBORw0KGgo..."
    }
  ]
}

响应内容

{
  "created": 1777132800,
  "data": [
    {
      "b64_json": "...",
      "revised_prompt": "..."
    }
  ]
}

Image Model

Gemini 3 Pro Image

gemini-3-pro-image-preview

返回模型表

支持接口请求路径

方法路径Content-Type说明
POST/v1beta/models/gemini-3-pro-image-preview:generateContentapplication/jsonGemini 原生 generateContent 格式。
POST/v1/chat/completionsapplication/jsonOpenAI Chat Completions 兼容格式。

OpenAI 兼容请求字段

字段类型必填说明
modelstring固定为 gemini-3-pro-image-preview
messagesarrayOpenAI Chat Completions 消息数组。
streamboolean是否使用 SSE 流式返回。

Gemini 原生请求字段

字段类型必填说明
contentsarray输入内容数组。
contents[].rolestring常用 user
contents[].partsarray文本或图片输入片段。
generationConfigobject生成配置,如温度、最大输出等。

Gemini 原生请求示例

{
  "contents": [
    {
      "role": "user",
      "parts": [
        {
          "text": "生成一张科技产品发布会海报,深色背景,主体清晰。"
        }
      ]
    }
  ]
}

Gemini 原生响应内容

{
  "candidates": [
    {
      "content": {
        "role": "model",
        "parts": [
          {
            "text": "..."
          }
        ]
      },
      "finishReason": "STOP"
    }
  ],
  "usageMetadata": {
    "promptTokenCount": 32,
    "candidatesTokenCount": 128,
    "totalTokenCount": 160
  }
}

OpenAI 兼容请求示例

{
  "model": "gemini-3-pro-image-preview",
  "messages": [
    {
      "role": "user",
      "content": "生成一张科技产品发布会海报,深色背景,主体清晰。"
    }
  ],
  "stream": false
}

OpenAI 兼容响应内容

{
  "id": "chatcmpl_xxx",
  "object": "chat.completion",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "..."
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 32,
    "completion_tokens": 128,
    "total_tokens": 160
  }
}

Image Model

Gemini 3.1 Flash Image

gemini-3.1-flash-image-preview

返回模型表

支持接口请求路径

方法路径Content-Type说明
POST/v1/images/generationsapplication/json图片生成接口。

请求字段表

字段类型必填说明
modelstring固定为 gemini-3.1-flash-image-preview
promptstring图片提示词。
sizestring建议按控制台支持的尺寸传入。
response_formatstring推荐 b64_json
{
  "model": "gemini-3.1-flash-image-preview",
  "prompt": "一张电商主图,白底,产品居中,细节清晰",
  "size": "1024x1024",
  "response_format": "b64_json"
}

响应内容

{
  "created": 1777132800,
  "data": [
    {
      "b64_json": "..."
    }
  ]
}

Public Group

公益文本模型

gemini-2.5-flashgemini-3-flash-previewgrok-3grok-4grok-4.1-fast

返回模型表
公益分组用于低成本体验和轻量任务,开放状态以控制台显示为准。重要生产任务请优先选择稳定分组。

支持接口请求路径

方法路径Content-Type说明
POST/v1/chat/completionsapplication/jsonOpenAI Chat Completions 兼容格式。

请求字段表

字段类型必填说明
modelstring填写当前开放的公益模型名。
messagesarray消息数组。
streamboolean是否使用 SSE 流式返回。
{
  "model": "gemini-2.5-flash",
  "messages": [
    {"role": "user", "content": "总结这段文本的重点。"}
  ],
  "stream": false
}

响应内容

{
  "id": "chatcmpl_xxx",
  "object": "chat.completion",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "..."
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 20,
    "completion_tokens": 80,
    "total_tokens": 100
  }
}

Pricing

定价查询接口

定价接口用于展示模型价格、可用分组和支持的接口类型。实际扣费以用量日志为准。

GET /api/pricing
字段说明
data[]模型定价列表。
group_ratio分组倍率映射。
usable_group分组说明映射。
supported_endpoint接口类型到路径的映射。

Errors

错误格式

模型接口尽量保持 OpenAI 兼容错误结构。接入方应读取 HTTP 状态码和 error.code 做重试或提示。

状态码常见含义建议处理
400参数格式错误、模型不支持该参数。检查请求字段、模型名和对应模型说明。
401API Key 无效或缺失。检查 Authorization Header。
403令牌未勾选对应分组或权限不足。在控制台确认分组权限。
429限速、排队过多或余额不足。降低并发、稍后重试或检查余额。
500/502/504/524服务处理失败或请求耗时过长。建议退避重试;图片 4K 任务不要高并发压测。
{
  "error": {
    "message": "bad response status code 524",
    "type": "bad_response_status_code",
    "param": "",
    "code": "bad_response_status_code"
  }
}

FAQ

常见问题

为什么 GPT Image 2 建议 n=1

gpt-image-2 当前单次请求仅保证返回 1 张图片。传入 n>1 时,平台不保证返回多张图片,费用也可能按请求张数计算。请按文档固定传 n=1

GPT Image 2 如何同时请求多张照片?

gpt-image-2 使用相同提示词并发请求即可。例如想一次性生成 4 张照片,就发起 4 次并发请求,每次请求都设置 n=1

图片接口是否支持流式返回?

当前图片接口以完整响应为准,不建议传 stream=true。4K 图片生成可能耗时较长,调用方应设置足够的读取超时时间。

如何做参考图生成?

gpt-image-2 可在 /v1/images/generations 请求中传 images[].image_url,值为 data:image/png;base64,... 格式。

为什么 4K 图片有时很慢?

4K 图片计算量大,且容易出现排队。建议业务侧降低并发、设置较长超时,并在用户界面提示生成中状态。

分组在哪里配置?

在控制台创建或编辑令牌时勾选对应分组。模型请求会根据令牌分组权限进行校验。