v1.65.0 更新了 /model/new
端点,以防止非团队管理员创建团队模型。
这意味着只有代理管理员或团队管理员可以创建团队模型。
额外变更
- 允许团队管理员调用
/model/update
更新团队模型。 - 允许团队管理员调用
/model/delete
删除团队模型。 - 为
/v2/model/info
引入新的user_models_only
参数 - 只返回此用户添加的模型。
这些变更使团队管理员能够在 LiteLLM UI + API 上为其团队添加和管理模型。
v1.65.0 更新了 /model/new
端点,以防止非团队管理员创建团队模型。
这意味着只有代理管理员或团队管理员可以创建团队模型。
/model/update
更新团队模型。/model/delete
删除团队模型。/v2/model/info
引入新的 user_models_only
参数 - 只返回此用户添加的模型。这些变更使团队管理员能够在 LiteLLM UI + API 上为其团队添加和管理模型。
这些是自 v1.61.13-stable
以来的变更。
本次发布主要侧重于
这里有一个演示实例用于测试变更
<think>
参数提取到 'reasoning_content' 中 从这里开始litellm_proxy/
用于嵌入、图像生成、转录、语音、重排 从这里开始在此处查看完整的 git diff 此处。
警报
, prometheus
, 密钥管理
, 管理端点
, UI
, 提示管理
, 微调
, 批量
/utils/token_counter
上使用自定义分词器 - 在检查自托管模型的 token 计数时非常有用/v1/completion
端点上omni-moderation-latest
。 从这里开始stream=true
,响应将以流式传输。 从这里开始集成 PagerDuty 警报。
处理两种类型的警报
添加了基于自定义指标追踪延迟/消费/token 的支持。 从这里开始
支持读取凭据 + 写入 LLM API 密钥。 从这里开始
ATHINA_BASE_URL
这是 v1.56.3-stable 和 v1.57.8-stable 之间的 diff。
使用此链接查看代码库中的变更。
langfuse
, 管理端点
, UI
, prometheus
, 密钥管理
Langfuse 提示管理当前标记为 BETA 版。这使我们能够快速迭代收到的反馈,并向用户明确状态。我们预计此功能将在下个月 (2025 年 2 月) 稳定。
变更
在 UI 上管理团队和组织现在更简单了。
变更
/team/member_update
我们现在支持将 LiteLLM 虚拟 API 密钥写入 Hashicorp Vault。
定义自定义 Prometheus 指标,并针对它们追踪使用情况/延迟/请求数量
这允许进行更细粒度的追踪 - 例如,根据请求元数据中传递的提示模板