主要亮点
- SCIM 集成:使身份提供商(Okta、Azure AD、OneLogin 等)能够自动化用户和团队(组)的配置、更新和取消配置。
- 基于团队和标签的使用情况跟踪:您现在可以在100万+消费日志中按团队和标签查看使用情况和花费。
- 统一响应 API:支持通过 OpenAI 新的 Responses API 调用 Anthropic、Gemini、Groq 等模型。
让我们深入了解。
SCIM 集成
本次发布为 LiteLLM 添加了 SCIM 支持。这使您的 SSO 提供商(Okta、Azure AD 等)可以在 LiteLLM 上自动创建/删除用户、团队和成员资格。这意味着当您在 SSO 提供商中移除一个团队时,您的 SSO 提供商将自动删除 LiteLLM 上对应的团队。
基于团队和标签的使用情况跟踪
本次发布改进了在100万+消费日志中的基于团队和标签的使用情况跟踪,使您可以轻松监控生产环境中的 LLM API 花费。这包括:
- 查看按团队 + 标签划分的每日花费
- 查看团队内部按 key 划分的使用情况/花费
- 查看按多个标签划分的花费
- 允许内部用户查看他们所属团队的花费
统一响应 API
本次发布允许您通过 LiteLLM 上的 POST /v1/responses 端点调用 Azure OpenAI、Anthropic、AWS Bedrock 和 Google Vertex AI 模型。这意味着您现在可以将 OpenAI Codex 等流行工具与您自己的模型一起使用。
新模型 / 更新的模型
- OpenAI
- Azure AI
- Anthropic
- Cohere
- Azure
- VLLM
- Mistral
- AWS
- 新增映射 Bedrock 区域 - PR
- VertexAI / Google AI Studio
- Fireworks AI
- 在
tool_calls
字段中返回工具调用响应(Fireworks 错误地将其作为内容中的 JSON 字符串返回) PR
- 在
- Triton
- 其他
花费跟踪改进
- 成本控制 - 在 prompt 中注入缓存控制点以降低成本 开始使用, PR
- 花费标签 - header 中的花费标签 - 支持 x-litellm-tags 即使未启用基于标签的路由 开始使用, PR
- Gemini-2.5-flash - 支持推理 token 的成本计算 PR
管理端点 / UI
用户
- 在用户页面显示 created_at 和 updated_at - PR
虚拟密钥
使用情况标签页
模型
- 使列可调整大小/可隐藏 - PR
API 演练场
- 允许内部用户调用 API 演练场 - PR
SCIM
日志记录 / Guardrail 集成
- GCS
- AIM
- Azure Blob 存储