跳到主要内容

标记为“密钥管理”的 2 篇文章

查看所有标签

Krrish Dholakia
Ishaan Jaffer

alerting, prometheus, secret management, management endpoints, ui, prompt management, finetuning, batch

新增/更新的模型

  1. Mistral large 定价 - https://github.com/BerriAI/litellm/pull/7452
  2. Cohere command-r7b-12-2024 定价 - https://github.com/BerriAI/litellm/pull/7553/files
  3. Voyage - 新增模型、价格和上下文窗口信息 - https://github.com/BerriAI/litellm/pull/7472
  4. Anthropic - 将 Bedrock claude-3-5-haiku 的 max_output_tokens 提高到 8192

代理通用改进

  1. 支持实时模型的健康检查
  2. 支持通过虚拟密钥调用 Azure 实时路由
  3. 支持在 /utils/token_counter 上使用自定义分词器 - 在检查自托管模型的 token 计数时很有用
  4. 请求优先级 - 也支持 /v1/completion 端点

LLM 翻译改进

  1. 支持 Deepgram STT。 从这里开始
  2. OpenAI 审核 - 支持 omni-moderation-latest从这里开始
  3. Azure O1 - 伪流式传输支持。这确保了如果传递 stream=true,响应将以流式形式返回。 从这里开始
  4. Anthropic - 处理非空白字符停止序列 - PR
  5. Azure OpenAI - 支持基于 Entra ID 用户名 + 密码的身份验证。 从这里开始
  6. LM Studio - 支持 embedding 路由。 从这里开始
  7. WatsonX - 支持 ZenAPIKeyAuth。 从这里开始

提示管理改进

  1. Langfuse 集成
  2. HumanLoop 集成
  3. 支持使用负载均衡的模型
  4. 支持从提示管理器加载可选参数

从这里开始

微调 + 批处理 API 改进

  1. 改进的 Vertex AI 微调统一端点支持 - PR
  2. 添加对检索 vertex api 批处理作业的支持 - PR

*新增* 警报集成

PagerDuty 警报集成。

处理两种类型的警报

  • LLM API 失败率高。配置在 Y 秒内发生 X 次失败触发警报。
  • LLM 请求挂起数量多。配置在 Y 秒内发生 X 次挂起触发警报。

从这里开始

Prometheus 改进

添加了基于自定义指标跟踪延迟/花费/tokens 的支持。 从这里开始

*新增* Hashicorp 密钥管理器支持

支持读取凭据 + 写入 LLM API 密钥。 从这里开始

管理端点 / UI 改进

  1. 在代理 UI 上创建和查看组织 + 分配组织管理员
  2. 支持按 key_alias 删除密钥
  3. 允许在 UI 上将团队分配给组织
  4. 禁用在“测试密钥”面板中使用 UI 会话 token
  5. 在“测试密钥”面板中显示使用的模型
  6. 支持在“测试密钥”面板中输出 Markdown

Helm 改进

  1. 防止对 db 迁移 cron 作业进行 istio 注入
  2. 允许在作业中使用 migrationJob.enabled 变量

日志改进

  1. braintrust 日志记录:遵守 project_id,添加更多指标 - https://github.com/BerriAI/litellm/pull/7613
  2. Athina - 支持基本 URL - ATHINA_BASE_URL
  3. Lunary - 允许将自定义父运行 ID 传递给 LLM 调用

Git Diff

这是 v1.56.3-stable 和 v1.57.8-stable 之间的差异。

使用此功能查看代码库中的更改。

Git Diff

Krrish Dholakia
Ishaan Jaffer

langfuse, management endpoints, ui, prometheus, secret management

Langfuse 提示管理

Langfuse 提示管理目前被标记为 BETA 版本。这使我们能够快速根据收到的反馈进行迭代,并向用户更清晰地说明其状态。我们预计该功能将在下个月(2025年2月)变得稳定。

变更

  • 在 LLM API 请求中包含客户端消息。(以前只发送了提示模板,而忽略了客户端消息)。
  • 在日志请求中记录提示模板(例如记录到 s3/langfuse)。
  • 在日志请求中记录 'prompt_id' 和 'prompt_variables'(例如记录到 s3/langfuse)。

从这里开始

团队/组织管理 + UI 改进

在 UI 上管理团队和组织现在更容易了。

变更

  • 支持在 UI 上编辑团队内的用户角色。
  • 支持通过 API 将团队成员角色更新为管理员 - /team/member_update
  • 向团队管理员显示其团队的所有密钥。
  • 添加带有预算的组织
  • 在 UI 上将团队分配给组织
  • 自动将 SSO 用户分配给团队

从这里开始

Hashicorp Vault 支持

我们现在支持将 LiteLLM 虚拟 API 密钥写入 Hashicorp Vault。

从这里开始

自定义 Prometheus 指标

定义自定义 prometheus 指标,并跟踪其使用量/延迟/请求数量

这允许进行更细粒度的跟踪 - 例如根据请求元数据中传递的提示模板

从这里开始