Chat Completions API
OpenAI 格式
创建对话补全
POST /api/v1/chat/completions
认证: Authorization: Bearer <API_KEY> 或 x-api-key: <API_KEY>
请求体: 与 OpenAI Chat Completions API 完全兼容。请求体透传到上游模型供应商,SilvaMux 仅修改 model 字段(映射到上游模型 ID)并在流式模式下注入 stream_options.include_usage。
curl https://silvamux.tingyutech.com/api/v1/chat/completions \
-H "Authorization: Bearer sk_live_YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "minimax/MiniMax-M2.5",
"messages": [
{"role": "system", "content": "你是一个有帮助的助手"},
{"role": "user", "content": "你好"}
],
"temperature": 0.7,
"max_tokens": 2048,
"stream": false
}'
响应: OpenAI 格式,由上游供应商原样返回。
{
"id": "chatcmpl-xxxx",
"object": "chat.completion",
"created": 1711843200,
"model": "MiniMax-M2.5",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "你好!有什么可以帮你的吗?"
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 20,
"completion_tokens": 15,
"total_tokens": 35,
"prompt_tokens_details": { "cached_tokens": 0 }
}
}
流式响应: 设置 stream: true 后,响应为 text/event-stream,每个 chunk 格式同 OpenAI。最终 chunk 包含 usage 字段。
Anthropic 格式
创建消息
POST /api/anthropic/v1/messages
认证: Authorization: Bearer <API_KEY> 或 x-api-key: <API_KEY>
请求体: 兼容 Anthropic Messages API。
curl https://silvamux.tingyutech.com/api/anthropic/v1/messages \
-H "Authorization: Bearer sk_live_YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "minimax/MiniMax-M2.5",
"max_tokens": 1024,
"messages": [
{"role": "user", "content": "你好"}
]
}'
响应: Anthropic 格式。
{
"id": "msg_xxxx",
"type": "message",
"role": "assistant",
"content": [{ "type": "text", "text": "你好!有什么可以帮你的吗?" }],
"model": "MiniMax-M2.5",
"usage": {
"input_tokens": 10,
"output_tokens": 15,
"cache_creation_input_tokens": 0,
"cache_read_input_tokens": 0
}
}
流式响应: Anthropic SSE 格式,计费信息在 message_delta 事件中返回。
可用模型
| 模型 ID | 别名 | 支持协议 | 定价组 |
|---|---|---|---|
minimax/MiniMax-M2.5 |
minimax/minimax-m2.5 |
openai, anthropic | minimax |
minimax/MiniMax-M2.7 |
minimax/minimax-m2.7 |
openai, anthropic | minimax |
计费说明
对话补全按 token 用量计费。支持两种定价模式:
- 扁平定价 (flat_tokens): 固定单价,不区分上下文长度
- 阶梯定价 (input_tokens_tiers): 根据输入 token 总量(含缓存)选择对应阶梯单价
四个计费维度:
- 输入 token (input_tokens)
- 输出 token (output_tokens)
- 缓存读取 token (cache_read_tokens)
- 缓存写入 token (cache_write_tokens)
费用计算公式:
cost = (input * input_price + output * output_price + cache_read * cache_read_price + cache_write * cache_write_price) / 1,000,000 * discount_rate