部署此版本
- Docker
- Pip
docker run litellm
docker run
-e STORE_MODEL_IN_DB=True
-p 4000:4000
ghcr.io/berriai/litellm:main-v1.66.0-stable
pip install litellm
pip install litellm==1.66.0.post1
v1.66.0-stable 现已上线,以下是本次发布的重点内容
重点内容
- 实时 API 成本跟踪: 跟踪实时 API 调用的成本
- Microsoft SSO 自动同步: 从 Azure Entra ID 自动同步组和组成员到 LiteLLM
- xAI grok-3: 添加了对
xai/grok-3
模型的支持 - 安全修复: 修复了 CVE-2025-0330 和 CVE-2024-6825 漏洞
让我们深入了解。
实时 API 成本跟踪
本次发布增加了实时 API 日志记录 + 成本跟踪。
- 日志记录: LiteLLM 现在将实时调用的完整响应记录到所有日志集成(DB, S3, Langfuse 等)中
- 成本跟踪: 您现在可以为实时模型设置 'base_model' 和自定义价格。 自定义价格
- 预算: 您的密钥/用户/团队预算现在也适用于实时模型。
从 这里 开始
Microsoft SSO 自动同步
从 Azure Entra ID 自动同步组和成员到 LiteLLM
本次发布增加了对 Microsoft Entra ID 上的组和成员与 LiteLLM 自动同步的支持。这意味着 LiteLLM 代理管理员可以花更少的时间管理团队和成员,LiteLLM 处理以下事项
- 自动创建 Microsoft Entra ID 上已存在的团队
- 将 Microsoft Entra ID 上的团队成员与 LiteLLM 团队同步
从 这里 开始
新模型 / 更新模型
xAI
Hugging Face
- 添加了推理提供商支持 开始使用
Azure
- 添加了 azure/gpt-4o-realtime-audio 成本跟踪 PR
VertexAI
Google AI Studio
Azure
Databricks
通用
消费跟踪改进
- OpenAI, Azure
- 实时 API 成本跟踪,并在消费日志中包含 token 使用指标 开始使用
- Anthropic
- 通用
管理端点 / UI
测试密钥选项卡
在测试密钥页面上添加了推理内容、ttft、使用指标的渲染 PR
查看输入、输出、推理 token、ttft 指标。
标签 / 策略管理
添加了标签/策略管理。根据请求元数据创建路由规则。这允许您强制带有
tags="private"
的请求仅发送到特定模型。 开始使用创建和管理标签。
重新设计的登录屏幕
- 优化了登录屏幕 PR
Microsoft SSO 自动同步
UI Bug 修复
日志记录 / 护栏改进
- Prometheus
- 按 cron 计划发出密钥和团队预算指标 开始使用
安全修复
- 修复了 CVE-2025-0330 - Langfuse API 密钥在团队异常处理中泄露的问题 PR
- 修复了 CVE-2024-6825 - 调用后规则中的远程代码执行问题 PR
Helm
演示
在演示实例上尝试 今天
完整 Git Diff
从 v1.65.4-stable 以来的完整 git diff 请看 这里