告警
, prometheus
, 密钥管理
, 管理端点
, ui
, prompt 管理
, 微调
, 批量
新增/更新的模型
- Mistral large 定价 - https://github.com/BerriAI/litellm/pull/7452
- Cohere command-r7b-12-2024 定价 - https://github.com/BerriAI/litellm/pull/7553/files
- Voyage - 新模型、价格和上下文窗口信息 - https://github.com/BerriAI/litellm/pull/7472
- Anthropic - 将 Bedrock claude-3-5-haiku 的 max_output_tokens 提升至 8192
通用代理改进
- 支持实时模型的健康检查
- 支持通过虚拟密钥调用 Azure 实时路由
- 支持在
/utils/token_counter
上使用自定义分词器 - 在检查自托管模型的 token 计数时很有用 - 请求优先级 - 同时支持
/v1/completion
端点
LLM 相关功能改进
- 支持 Deepgram STT。 从这里开始
- 支持 OpenAI Moderations -
omni-moderation-latest
。 从这里开始 - Azure O1 - 支持模拟流式传输。这确保如果传入
stream=true
,响应会以流式传输。 从这里开始 - Anthropic - 非空白字符停止序列处理 - PR
- Azure OpenAI - 支持基于 Entra ID 用户名 + 密码的身份验证。 从这里开始
- LM Studio - 支持 Embedding 路由。 从这里开始
- WatsonX - 支持 ZenAPIKeyAuth。 从这里开始
Prompt 管理改进
- Langfuse 集成
- HumanLoop 集成
- 支持使用负载均衡的模型
- 支持从 Prompt 管理器加载可选参数
微调 + 批量 API 改进
新增 告警集成
PagerDuty 告警集成。
处理两种类型的告警
- LLM API 失败率过高。配置在 Y 秒内发生 X 次失败以触发告警。
- LLM 请求挂起数量过多。配置在 Y 秒内挂起 X 次以触发告警。
Prometheus 改进
添加了对基于自定义指标跟踪延迟/花费/token 的支持。 从这里开始
新增 Hashicorp Secret Manager 支持
支持读取凭据 + 写入 LLM API 密钥。 从这里开始
管理端点 / UI 改进
- 在代理 UI 上创建和查看组织 + 分配组织管理员
- 支持按
key_alias
删除密钥 - 允许在 UI 上将团队分配给组织
- 禁用在“测试密钥”面板中使用 UI 会话 token
- 在“测试密钥”面板中显示使用的模型
- 在“测试密钥”面板中支持 Markdown 输出
Helm 改进
- 防止 istio 对数据库迁移 cron 作业进行注入
- 允许在作业中使用
migrationJob.enabled
变量
日志记录改进
- braintrust 日志记录:遵守 project_id,添加更多指标 - https://github.com/BerriAI/litellm/pull/7613
- Athina - 支持基础 URL -
ATHINA_BASE_URL
- Lunary - 允许将自定义父运行 ID 传递给 LLM 调用
Git Diff
这是 v1.56.3-stable 和 v1.57.8-stable 之间的差异。
使用此功能查看代码库中的更改。