聚因 AI API 文档
聚因是高性能 AI API 聚合平台,提供 500+ 顶级模型的统一接入接口,完全兼容 OpenAI API 格式,一行代码即可接入。
极低延迟
全球多节点,首 Token 延迟 < 500ms
OpenAI 兼容
只需修改 base_url,立即迁移
500+ 模型
GPT、Claude、Gemini、DeepSeek 等
稳定可靠
自动负载均衡,故障自动切换
控制台地址:https://x.96876.top — 在此注册账号、获取 API Key、查看用量
快速接入
聚因 API 完全兼容 OpenAI SDK,只需将 base_url 替换为聚因地址即可。
API Base URL:https://x.96876.top/v1
from openai import OpenAI
client = OpenAI(
api_key="sk-your-api-key",
base_url="https://x.96876.top/v1"
)
response = client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": "你好,聚因!"}]
)
print(response.choices[0].message.content)
import OpenAI from "openai";
const client = new OpenAI({
apiKey: "sk-your-api-key",
baseURL: "https://x.96876.top/v1"
});
const response = await client.chat.completions.create({
model: "gpt-4o",
messages: [{role: "user", content: "你好,聚因!"}]
});
console.log(response.choices[0].message.content);
curl https://x.96876.top/v1/chat/completions \
-H "Authorization: Bearer sk-your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-4o",
"messages": [{"role": "user", "content": "你好,聚因!"}]
}'
鉴权说明
所有请求需在 HTTP Header 中携带 API Key:
Authorization: Bearer sk-xxxxxxxxxxxxxxxx
请勿将 API Key 提交到代码仓库或暴露在前端页面。如 Key 泄露,请立即在控制台禁用并重新生成。
在控制台获取 API Key
1. 登录 https://x.96876.top
2. 进入「个人中心」→「API 密钥」
3. 点击「新建密钥」,复制保存
Chat 对话接口
POST
https://x.96876.top/v1/chat/completions
请求参数
| 参数 | 类型 | 必填 | 说明 |
|---|---|---|---|
| model | string | 必填 | 模型名称,如 gpt-4o |
| messages | array | 必填 | 对话消息数组 |
| stream | boolean | 可选 | 是否流式输出,默认 false |
| temperature | number | 可选 | 随机性,0-2,默认 1 |
| max_tokens | integer | 可选 | 最大生成 Token 数 |
| top_p | number | 可选 | 核采样,0-1 |
响应示例
{
"id": "chatcmpl-abc123",
"object": "chat.completion",
"model": "gpt-4o",
"choices": [{
"index": 0,
"message": {
"role": "assistant",
"content": "你好!我是聚因 AI..."
},
"finish_reason": "stop"
}],
"usage": {
"prompt_tokens": 10,
"completion_tokens": 20,
"total_tokens": 30
}
}
获取模型列表
GET
https://x.96876.top/v1/models
curl https://x.96876.top/v1/models \
-H "Authorization: Bearer sk-your-api-key"
流式输出
设置 stream: true 开启 Server-Sent Events 流式返回,获得更低首字延迟的交互体验。
client = OpenAI(api_key="sk-...", base_url="https://x.96876.top/v1")
with client.chat.completions.stream(
model="claude-3-5-sonnet-20241022",
messages=[{"role": "user", "content": "写一首关于AI的诗"}]
) as stream:
for chunk in stream.text_stream:
print(chunk, end="", flush=True)
const stream = await client.chat.completions.create({
model: "claude-3-5-sonnet-20241022",
messages: [{role: "user", content: "写一首关于AI的诗"}],
stream: true
});
for await (const chunk of stream) {
process.stdout.write(chunk.choices[0]?.delta?.content || "");
}
图像生成
POST
https://x.96876.top/v1/images/generations
response = client.images.generate(
model="dall-e-3",
prompt="一只可爱的机器猫坐在星空下",
n=1,
size="1024x1024"
)
print(response.data[0].url)
向量嵌入
POST
https://x.96876.top/v1/embeddings
response = client.embeddings.create(
model="text-embedding-3-large",
input="聚因是最好的 AI API 平台"
)
print(response.data[0].embedding) # 3072 维向量
OpenAI 系列模型
| 模型 ID | 上下文 | 特点 | 状态 |
|---|---|---|---|
| gpt-4o | 128K | 旗舰多模态,速度快 | 可用 |
| gpt-4o-mini | 128K | 轻量经济,日常首选 | 可用 |
| gpt-4-turbo | 128K | 强推理,支持视觉 | 可用 |
| o1 | 200K | 深度推理,最强逻辑 | 可用 |
| o1-mini | 128K | 快速推理 | 可用 |
| o3-mini | 200K | 最新推理模型 | 可用 |
| gpt-4.5-preview | 128K | GPT-4.5 预览版 | 可用 |
Claude 系列模型
| 模型 ID | 上下文 | 特点 | 状态 |
|---|---|---|---|
| claude-3-5-sonnet-20241022 | 200K | 最强综合,代码首选 | 可用 |
| claude-3-5-haiku-20241022 | 200K | 超快响应,经济实惠 | 可用 |
| claude-3-opus-20240229 | 200K | 最强推理能力 | 可用 |
| claude-3-7-sonnet-20250219 | 200K | 混合推理,最新旗舰 | 可用 |
Gemini 系列模型
| 模型 ID | 上下文 | 特点 | 状态 |
|---|---|---|---|
| gemini-2.0-flash | 1M | 超快多模态,免费额度大 | 可用 |
| gemini-2.0-flash-thinking-exp | 1M | 推理实验版 | 可用 |
| gemini-1.5-pro | 2M | 超长上下文,处理长文 | 可用 |
| gemini-1.5-flash | 1M | 高效快速 | 可用 |
DeepSeek 系列模型
| 模型 ID | 上下文 | 特点 | 状态 |
|---|---|---|---|
| deepseek-chat | 64K | 国产旗舰,性价比极高 | 可用 |
| deepseek-reasoner | 64K | 深度推理(R1) | 可用 |
| deepseek-coder | 128K | 代码专项优化 | 可用 |
其他热门模型
| 模型 ID | 厂商 | 特点 | 状态 |
|---|---|---|---|
| llama-3.3-70b-instruct | Meta | 开源旗舰,指令跟随强 | 可用 |
| mixtral-8x22b-instruct | Mistral | MoE 架构 | 可用 |
| qwen-max | 阿里 | 通义千问旗舰 | 可用 |
| qwen2.5-72b-instruct | 阿里 | Qwen 2.5 开源 | 可用 |
| grok-2 | xAI | 实时联网,幽默风格 | 可用 |
| moonshot-v1-128k | 月之暗面 | 超长文档处理 | 可用 |
| glm-4 | 智谱 | 国产,工具调用强 | 可用 |
完整模型列表请通过 GET /v1/models 接口获取,或登录控制台的「模型广场」页面查看。
客户端接入指南
聚因兼容所有支持自定义 OpenAI endpoint 的客户端工具:
Cherry Studio
OpenAI 兼容提供商,填入 Base URL 即可
NextChat
自定义接入点设置
ChatBox
OpenAI API 设置页面
Cursor / Windsurf
配置 OpenAI 兼容 Base URL
通用配置参数
| 参数 | 值 |
|---|---|
| API Base URL | https://x.96876.top/v1 |
| API Key | sk-xxxx(从控制台获取) |
| API 类型 | OpenAI 兼容 / Azure OpenAI |
错误码说明
| HTTP 状态码 | 错误类型 | 说明 |
|---|---|---|
| 400 | invalid_request_error | 请求参数错误,如 model 不存在 |
| 401 | authentication_error | API Key 无效或已过期 |
| 403 | permission_error | 无权访问该模型或账户被封禁 |
| 429 | rate_limit_error | 请求过频,请降低并发或稍后重试 |
| 500 | server_error | 上游服务异常,自动重试中 |
| 503 | service_unavailable | 上游服务暂时不可用 |
© 2025 聚因 AI · 控制台