Chat Completions API

OpenAI 格式

创建对话补全

POST /api/v1/chat/completions

认证: Authorization: Bearer <API_KEY>x-api-key: <API_KEY>

请求体: 与 OpenAI Chat Completions API 完全兼容。请求体透传到上游模型供应商,SilvaMux 仅修改 model 字段(映射到上游模型 ID)并在流式模式下注入 stream_options.include_usage

curl https://silvamux.tingyutech.com/api/v1/chat/completions \
  -H "Authorization: Bearer sk_live_YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "minimax/MiniMax-M2.5",
    "messages": [
      {"role": "system", "content": "你是一个有帮助的助手"},
      {"role": "user", "content": "你好"}
    ],
    "temperature": 0.7,
    "max_tokens": 2048,
    "stream": false
  }'

响应: OpenAI 格式,由上游供应商原样返回。

{
  "id": "chatcmpl-xxxx",
  "object": "chat.completion",
  "created": 1711843200,
  "model": "MiniMax-M2.5",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "你好!有什么可以帮你的吗?"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 20,
    "completion_tokens": 15,
    "total_tokens": 35,
    "prompt_tokens_details": { "cached_tokens": 0 }
  }
}

流式响应: 设置 stream: true 后,响应为 text/event-stream,每个 chunk 格式同 OpenAI。最终 chunk 包含 usage 字段。


Anthropic 格式

创建消息

POST /api/anthropic/v1/messages

认证: Authorization: Bearer <API_KEY>x-api-key: <API_KEY>

请求体: 兼容 Anthropic Messages API。

curl https://silvamux.tingyutech.com/api/anthropic/v1/messages \
  -H "Authorization: Bearer sk_live_YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "minimax/MiniMax-M2.5",
    "max_tokens": 1024,
    "messages": [
      {"role": "user", "content": "你好"}
    ]
  }'

响应: Anthropic 格式。

{
  "id": "msg_xxxx",
  "type": "message",
  "role": "assistant",
  "content": [{ "type": "text", "text": "你好!有什么可以帮你的吗?" }],
  "model": "MiniMax-M2.5",
  "usage": {
    "input_tokens": 10,
    "output_tokens": 15,
    "cache_creation_input_tokens": 0,
    "cache_read_input_tokens": 0
  }
}

流式响应: Anthropic SSE 格式,计费信息在 message_delta 事件中返回。


可用模型

模型 ID 别名 支持协议 定价组
minimax/MiniMax-M2.5 minimax/minimax-m2.5 openai, anthropic minimax
minimax/MiniMax-M2.7 minimax/minimax-m2.7 openai, anthropic minimax

计费说明

对话补全按 token 用量计费。支持两种定价模式:

  • 扁平定价 (flat_tokens): 固定单价,不区分上下文长度
  • 阶梯定价 (input_tokens_tiers): 根据输入 token 总量(含缓存)选择对应阶梯单价

四个计费维度:

  • 输入 token (input_tokens)
  • 输出 token (output_tokens)
  • 缓存读取 token (cache_read_tokens)
  • 缓存写入 token (cache_write_tokens)

费用计算公式:

cost = (input * input_price + output * output_price + cache_read * cache_read_price + cache_write * cache_write_price) / 1,000,000 * discount_rate