强大的 API 管理能力,让大模型接入变得简单高效
自动分配请求到多个 API Key,支持权重配置,实现高可用和成本优化
详细的用量统计、成本分析和性能监控,让每一笔支出都清晰可见
精细的权限管理、额度控制和 IP 白名单,保障您的 API 使用安全
统一管理多个 API 提供商的密钥,支持自动故障转移和渠道优先级
完整支持 SSE 流式传输,实现打字机效果的实时响应体验
支持用户分组、额度分配和独立令牌管理,适合团队协作和企业部署
一个平台,接入全球所有主流大模型
以及 Mistral、Groq、Ollama、百川、MiniMax、零一万物 等更多模型...
兼容 OpenAI API 格式,简单集成
https://clawclaw.tech/v1
在 HTTP Header 中携带您的 API 令牌:
Authorization: Bearer YOUR_API_KEY
创建聊天完成请求:
POST /v1/chat/completions
请求示例:
{
"model": "gpt-3.5-turbo",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Hello!"}
],
"stream": false
}
curl https://clawclaw.tech/v1/chat/completions \ -H "Content-Type: application/json" \ -H "Authorization: Bearer YOUR_API_KEY" \ -d '{ "model": "gpt-3.5-turbo", "messages": [{"role": "user", "content": "Hello!"}] }'
from openai import OpenAI client = OpenAI( api_key="YOUR_API_KEY", base_url="https://clawclaw.tech/v1" ) response = client.chat.completions.create( model="gpt-3.5-turbo", messages=[{"role": "user", "content": "Hello!"}] ) print(response.choices[0].message.content)