v1.65.0 更新了 /model/new
端点,以阻止非团队管理员创建团队模型。
这意味着只有代理管理员或团队管理员才能创建团队模型。
其他更改
- 允许团队管理员调用
/model/update
以更新团队模型。 - 允许团队管理员调用
/model/delete
以删除团队模型。 - 在
/v2/model/info
中引入新的user_models_only
参数 - 仅返回此用户添加的模型。
这些更改使团队管理员能够在 LiteLLM UI + API 上为其团队添加和管理模型。
v1.65.0 更新了 /model/new
端点,以阻止非团队管理员创建团队模型。
这意味着只有代理管理员或团队管理员才能创建团队模型。
/model/update
以更新团队模型。/model/delete
以删除团队模型。/v2/model/info
中引入新的 user_models_only
参数 - 仅返回此用户添加的模型。这些更改使团队管理员能够在 LiteLLM UI + API 上为其团队添加和管理模型。
告警
, Prometheus
, 密钥管理
, 管理端点
, UI
, Prompt 管理
, 微调
, 批量
/utils/token_counter
上支持自定义分词器 - 在检查自托管模型的 token 计数时很有用/v1/completion
端点omni-moderation-latest
。从这里开始stream=true
,响应将以流式传输。从这里开始PagerDuty 告警集成。
处理两种类型的告警
添加了基于自定义指标跟踪延迟/花费/token 的支持。从这里开始
ATHINA_BASE_URL
这是 v1.56.3-stable 和 v1.57.8-stable 之间的差异。
使用此差异查看代码库中的更改。
Langfuse
, 管理端点
, UI
, Prometheus
, 密钥管理
Langfuse Prompt 管理被标记为 BETA 版本。这使我们能够快速迭代收到的反馈,并向用户明确其状态。我们预计到下个月(2025 年 2 月)此功能将变得稳定。
更改
在 UI 上管理团队和组织现在变得更容易了。
更改
/team/member_update
我们现在支持将 LiteLLM 虚拟 API 密钥写入 Hashicorp Vault。
定义自定义 Prometheus 指标,并跟踪针对它们的用量/延迟/请求数
这允许进行更精细的跟踪 - 例如,基于请求元数据中传递的 prompt 模板