主要亮点
- SCIM 集成:使身份提供商(Okta、Azure AD、OneLogin 等)能够自动化用户和团队(组)的配置、更新和注销
- 基于团队和标签的使用情况跟踪:现在,您可以在 100 万条以上的消费日志中按团队和标签查看使用情况和花费。
- 统一响应 API:支持通过 OpenAI 新的响应 API 调用 Anthropic、Gemini、Groq 等。
让我们深入了解。
SCIM 集成
此版本为 LiteLLM 添加了 SCIM 支持。这使您的 SSO 提供商(Okta、Azure AD 等)能够自动在 LiteLLM 上创建/删除用户、团队和成员资格。这意味着当您在 SSO 提供商中移除一个团队时,您的 SSO 提供商将自动删除 LiteLLM 上对应的团队。
基于团队和标签的使用情况跟踪
此版本改进了 100 万条以上消费日志中基于团队和标签的使用情况跟踪,从而方便您在生产环境中监控 LLM API 花费。这包括:
- 查看按团队 + 标签划分的每日花费
- 在团队内部查看按密钥划分的使用情况/花费
- 查看按多个标签划分的花费
- 允许内部用户查看其所属团队的花费
统一响应 API
此版本允许您通过 LiteLLM 上的 POST /v1/responses 端点调用 Azure OpenAI、Anthropic、AWS Bedrock 和 Google Vertex AI 模型。这意味着您现在可以使用 OpenAI Codex 等流行工具结合您自己的模型。
新模型 / 更新模型
- OpenAI
- Azure AI
- Anthropic
- Cohere
- Azure
- VLLM
- Mistral
- AWS
- 新的映射 Bedrock 区域 - PR
- VertexAI / Google AI Studio
- Fireworks AI
- 在
tool_calls
字段中返回工具调用响应(Fireworks 错误地将其作为 json 字符串在 content 中返回) PR
- 在
- Triton
- 其他
花费跟踪改进
- 成本控制 - 在提示中注入缓存控制点以降低成本 入门, PR
- 花费标签 - 请求头中的花费标签 - 支持 x-litellm-tags,即使未启用基于标签的路由 入门, PR
- Gemini-2.5-flash - 支持推理 token 的成本计算 PR
管理端点 / UI
用户
- 在用户页面显示 created_at 和 updated_at - PR
虚拟密钥
用量标签页
模型
- 使列可调整大小/可隐藏 - PR
API 演练场
- 允许内部用户调用 API 演练场 - PR
SCIM
日志记录 / Guardrail 集成
- GCS
- AIM
- Azure Blob 存储