在这里获取 LiteLLM 企业版 7 天免费试用。这里。
无需联系
新模型/更新的模型
- 新增 OpenAI
/image/variations
端点 BETA 支持 文档 - 在 OpenAI
/image/variations
BETA 端点上支持 Topaz API 文档 - Deepseek - 支持带有 reasoning_content 的 r1 版本 (Deepseek API, Vertex AI, Bedrock)
- Azure - 添加 Azure o1 定价 请参阅这里
- Anthropic - 处理模型中的 `-latest` 标签用于成本计算
- Gemini-2.0-flash-thinking - 添加模型定价 (0.0) 请参阅这里
- Bedrock - 添加 stability sd3 模型定价 请参阅这里 (感谢 Marty Sullivan)
- Bedrock - 将 us.amazon.nova-lite-v1:0 添加到模型成本图 请参阅这里
- TogetherAI - 添加新的 together_ai llama3.3 模型 请参阅这里
LLM 翻译
- LM Studio -> 修复异步嵌入调用
- Gpt 4o 模型 - 修复 response_format 翻译
- Bedrock nova - 扩展支持的文档类型,包括 .md, .csv 等。 从这里开始
- Bedrock - 关于 Bedrock 基于 IAM 角色访问的文档 - 从这里开始
- Bedrock - 使用时缓存 IAM 角色凭据
- Google AI Studio (
gemini/
) - 支持 gemini 的 'frequency_penalty' 和 'presence_penalty' - Azure O1 - 修复模型名称检查
- WatsonX - 支持 WatsonX 的 ZenAPIKey 文档
- Ollama Chat - 支持 json schema 响应格式 从这里开始
- Bedrock - 流式传输错误时返回正确的 bedrock 状态码和错误消息
- Anthropic - 支持 Anthropic 调用中的嵌套 json schema
- OpenAI -
metadata
参数预览支持- SDK - 通过
litellm.enable_preview_features = True
启用 - PROXY - 通过
litellm_settings::enable_preview_features: true
启用
- SDK - 通过
- Replicate - 在 status=processing 时重试完成响应
支出跟踪改进
- Bedrock - QA 确保所有 bedrock 区域模型与基础模型具有相同的
supported_
字段 - Bedrock - 修复指定区域名称时的 bedrock converse 成本跟踪问题
- 支出日志可靠性修复 - 当请求体中传递的
user
为整数而非字符串时 - 确保 ‘base_model’ 成本跟踪在所有端点上都有效
- 图像生成成本跟踪修复
- Anthropic - 修复 Anthropic 最终用户成本跟踪
- JWT / OIDC 认证 - 添加来自 jwt 认证的最终用户 id 跟踪
管理端点 / UI
- 允许团队成员在添加后成为管理员 (UI + 端点)
- UI 上更新团队成员的新编辑/删除按钮
- 如果是团队管理员 - 显示所有团队密钥
- 模型中心 - 明确模型成本是每 100万 token
- 邀请链接 - 修复生成的无效 URL
- 新增 - 支出日志表格查看器 - 允许代理管理员在 UI 上查看支出日志
- 新增支出日志 - 允许代理管理员“选择加入”在支出日志表中记录请求/响应 - 便于更轻松地检测滥用行为
- 在支出日志中显示原产国
- 添加分页 + 按密钥名称/团队名称过滤
/key/delete
- 允许团队管理员删除团队密钥- 内部用户 ‘视图’ - 修复选择团队时的支出计算问题
- 模型分析现在在免费版中可用
- 用量页面 - 显示支出为 0 的天数,并将图表上的支出四舍五入到 2 位有效数字
- 公共团队 - 允许管理员公开团队供新用户在 UI 上 ‘加入’ - 从这里开始
- Guardrails(安全护栏)
- 在虚拟密钥上设置/编辑 guardrails
- 允许在团队上设置 guardrails
- 在团队创建 + 编辑页面上设置 guardrails
- 支持在
/key/update
上临时增加预算 - 新增temp_budget_increase
和temp_budget_expiry
字段 - 从这里开始 - 支持将新密钥别名写入 AWS Secret Manager - 在密钥轮换时 从这里开始
Helm
- 为迁移作业添加 securityContext 和 pull policy 值 (感谢 https://github.com/Hexoplon)
- 允许在 values.yaml 中指定 envVars
- 新的 helm lint 测试
日志记录 / Guardrail 集成
- 使用 prompt 管理时记录使用的 prompt。 从这里开始
- 支持带有团队别名前缀的 S3 日志记录 - 从这里开始
- Prometheus 从这里开始
- 修复 bedrock 模型中 litellm_llm_api_time_to_first_token_metric 未填充的问题
- 定期发布剩余团队预算指标(即使没有调用)- 允许在 Grafana 等工具中获得更稳定的指标
- 添加密钥和团队级别的预算指标
- 发布
litellm_overhead_latency_metric
- 发布
litellm_team_budget_reset_at_metric
和litellm_api_key_budget_remaining_hours_metric
- Datadog - 支持将支出标签记录到 Datadog。 从这里开始
- Langfuse - 修复请求标签日志记录,从标准日志 payload 读取
- GCS - 日志记录时不要截断 payload
- 新增 GCS Pub/Sub 日志记录支持 从这里开始
- 添加 AIM Guardrails 支持 从这里开始
安全
- 针对安全漏洞修复的新企业版 SLA。 请参阅这里
- Hashicorp - 支持使用 vault namespace 进行 TLS 认证。 从这里开始
- Azure - 支持 DefaultAzureCredential
健康检查
- 从通配符路由列表中清理仅定价的模型名称 - 防止错误的健康检查
- 允许为通配符路由指定健康检查模型 - https://docs.litellm.com.cn/docs/proxy/health#wildcard-routes
- 新增 ‘health_check_timeout ‘ 参数,默认上限为 1 分钟,防止错误的模型导致健康检查挂起并引起 pod 重启。 从这里开始
- Datadog - 添加 Datadog 服务健康检查 + 暴露新的
/health/services
端点。 从这里开始
性能 / 可靠性改进
- RPS 提升 3 倍 - 使用 orjson 读取请求体
- LLM 路由加速 - 使用缓存的模型组信息
- SDK 加速 - 使用缓存的模型信息辅助工具 - 减少获取模型信息的 CPU 工作量
- 代理加速 - 每个请求只读取请求体一次
- 代码库中添加了无限循环检测脚本
- Bedrock - 纯异步图像转换请求
- 冷却时间 - 如果在高流量下 100% 的调用失败,则将模型组设置为单个部署 - 防止 o1 中断影响其他调用
- 响应头 - 返回
x-litellm-timeout
x-litellm-attempted-retries
x-litellm-overhead-duration-ms
x-litellm-response-duration-ms
- 确保不会向代理添加重复的回调
- Requirements.txt - 提升 certifi 版本
通用代理改进
- JWT / OIDC 认证 - 新增
enforce_rbac
参数,允许代理管理员阻止任何未映射但已认证的 jwt token 调用代理。 从这里开始 - 修复定制 swagger 的自定义 openapi schema 生成问题
- 请求头 - 支持从请求头读取
x-litellm-timeout
参数。使用 Vercel 的 AI SDK + LiteLLM Proxy 时启用模型超时控制。 从这里开始 - JWT / OIDC 认证 - 新增基于
role
的模型认证权限。 请参阅这里
完整 Git Diff
这是 v1.57.8-stable 和 v1.59.8-stable 之间的 diff。
使用此文件查看代码库中的更改。