简介
什么是 Lurus API?
Lurus API 是一个统一的 AI 网关平台,让你通过单一 API 接口访问所有主流大语言模型(LLM)。无论是 OpenAI 的 GPT、Anthropic 的 Claude、Google 的 Gemini,还是国产的 DeepSeek、通义千问,都可以通过相同的 API 格式调用。
核心特性
🔌 统一 API 接口
完全兼容 OpenAI API 格式,现有项目无需任何代码修改:
python
# 只需更换 base_url 和 api_key
from openai import OpenAI
client = OpenAI(
base_url="https://api.lurus.cn/v1",
api_key="your-lurus-api-key"
)
# 使用方式完全相同
response = client.chat.completions.create(
model="gpt-4o", # 或 claude-3-sonnet, gemini-3-pro, deepseek-chat
messages=[{"role": "user", "content": "Hello!"}]
)🔀 智能路由与负载均衡
- 多渠道配置: 同一模型可配置多个供应商渠道
- 自动故障转移: 某渠道失败自动切换到备用渠道
- 权重分配: 按比例分配流量到不同渠道
- 优先级控制: 优先使用成本更低或速度更快的渠道
💵 精细化成本控制
- 配额管理: 为每个 API Key 设置使用配额
- 实时计费: 按实际 Token 用量计费
- 用量统计: 详细的调用记录和费用报表
- 预算告警: 配额即将用尽时自动通知
🛡️ 企业级安全
- API Key 管理: 创建多个 Key,分配不同权限
- 模型白名单: 限制 Key 可访问的模型列表
- IP 白名单: 限制 API 调用来源
- 请求日志: 完整记录每次调用,便于审计
适用场景
| 场景 | 说明 |
|---|---|
| AI 应用开发 | 快速接入多种模型,一套代码适配所有供应商 |
| 成本优化 | 灵活切换低成本模型,智能路由到最优渠道 |
| 服务稳定性 | 多渠道冗余,自动故障转移,99.9% 可用性 |
| 企业内部 | 统一管理员工 AI 使用,控制成本和权限 |
| API 转售 | 作为中间层,为下游客户提供 AI 服务 |
架构概览
┌─────────────────────────────────────────────────────────────────┐
│ 客户端应用 │
│ (Web App / Mobile App / CLI / SDK) │
└─────────────────────────────────────────────────────────────────┘
│
▼
┌─────────────────────────────────────────────────────────────────┐
│ Lurus API Gateway │
│ ┌─────────┐ ┌─────────┐ ┌─────────┐ ┌─────────┐ │
│ │ 认证 │ │ 路由 │ │ 计费 │ │ 日志 │ │
│ │ Auth │ │ Router │ │ Billing │ │ Logger │ │
│ └─────────┘ └─────────┘ └─────────┘ └─────────┘ │
└─────────────────────────────────────────────────────────────────┘
│
┌───────────┬───────────┼───────────┬───────────┐
▼ ▼ ▼ ▼ ▼
┌─────────┐ ┌─────────┐ ┌─────────┐ ┌─────────┐ ┌─────────┐
│ OpenAI │ │ Claude │ │ Gemini │ │DeepSeek │ │ 其他 │
└─────────┘ └─────────┘ └─────────┘ └─────────┘ └─────────┘下一步
- 快速开始 - 5 分钟完成首次调用
- 获取 API Key - 注册并创建你的 Key
- 支持的模型 - 查看完整模型列表
