部署此版本
- Docker
- Pip
docker run litellm
docker run
-e STORE_MODEL_IN_DB=True
-p 4000:4000
ghcr.io/berriai/litellm:main-v1.70.1-stable
pip install litellm
pip install litellm==1.70.1
主要亮点
LiteLLM v1.70.1-stable 现已发布。以下是本次发布的主要亮点
- Gemini 实时 API:您现在可以通过 OpenAI 的 /v1/realtime API 调用 Gemini 的 Live API
- 消费日志保留期:启用删除早于特定时长的消费日志。
- PII 屏蔽 2.0:在 UI 上轻松配置屏蔽或阻止特定 PII/PHI 实体
Gemini 实时 API
本次发布支持通过 OpenAI 的 /v1/realtime API 调用 Gemini 的实时模型(例如 gemini-2.0-flash-live)。这对于开发者来说非常棒,因为只需更改模型名称即可轻松从 OpenAI 切换到 Gemini。
主要亮点
- 支持文本 + 音频输入/输出
- 支持以 OpenAI 格式设置会话配置(模态、指令、活动检测)
- 支持实时会话的日志记录 + 使用跟踪
目前通过 Google AI Studio 支持。我们计划在未来一周内发布 VertexAI 支持。
消费日志保留期
本次发布支持删除早于特定时长的 LiteLLM 消费日志。由于现在我们支持在日志中存储原始请求/响应,删除旧日志可确保数据库在生产环境中保持高性能。
PII 屏蔽 2.0
本次发布改进了我们的 Presidio PII 集成。作为代理管理员,您现在可以
- 屏蔽或阻止特定实体(例如,屏蔽医疗执照,同时屏蔽电子邮件等其他实体)。
- 在生产环境中监控防护栏。LiteLLM 日志现在将显示防护栏运行情况、检测到的实体及其对每个实体的置信度评分。
新模型 / 更新的模型
- Gemini (VertexAI + Google AI Studio)
- Google AI Studio
/realtime
- 支持 Gemini 多模态 Live API
- 支持音频输入/输出、可选参数映射、准确使用量计算 - PR
- VertexAI
/chat/completion
- 修复 llama 流错误 - 模型响应嵌套在返回的流块中 - PR
- Ollama
/chat/completion
- 修复结构化响应 - PR
- Bedrock
- Nvidia NIM
/chat/completion
- 添加工具、tool_choice、parallel_tool_calls 支持 - PR
- Novita AI
- 为
/chat/completion
路由添加了新提供商 - PR
- 为
- Azure
/image/generation
- 修复 Azure Dall-E 3 使用自定义模型名称调用问题 - PR
- Cohere
/embeddings
- 将 embedding 迁移至使用
/v2/embed
- 添加了 output_dimensions 参数支持 - PR
- 将 embedding 迁移至使用
- Anthropic
/chat/completion
- 支持 Web 搜索工具 - 原生 + OpenAI 格式 - 开始使用
- VLLM
/embeddings
- 支持将整数列表作为 embedding 输入
- OpenAI
LLM API 端点
- 响应 API
- 修复删除 API 支持 - PR
- Rerank API
/v2/rerank
现在注册为 ‘llm_api_route’ - 允许非管理员调用 - PR
消费跟踪改进
/chat/completion
,/messages
/audio/transcription
/embeddings
- Azure AI - 添加 cohere embed v4 定价 - PR
管理端点 / UI
- 模型
- Ollama - 在 UI 中添加 API base 参数
- 日志
- 在日志中添加团队 ID、密钥别名、密钥哈希过滤器 - https://github.com/BerriAI/litellm/pull/10831
- 防护栏跟踪现在显示在日志 UI 中 - https://github.com/BerriAI/litellm/pull/10893
- 团队
- 当团队在组织中但成员不在组织中时,更新团队信息的补丁 - https://github.com/BerriAI/litellm/pull/10835
- 防护栏
- 在 UI 中添加 Bedrock、Presidio、Lakers 防护栏 - https://github.com/BerriAI/litellm/pull/10874
- 查看防护栏信息页面 - https://github.com/BerriAI/litellm/pull/10904
- 允许在 UI 中编辑防护栏 - https://github.com/BerriAI/litellm/pull/10907
- 测试密钥
- 在 UI 中选择要测试的防护栏
日志记录 / 警报集成
- StandardLoggingPayload
- 通用 API 记录器
- 支持传递 application/json 头部
- Arize Phoenix
- PagerDuty
- PagerDuty 现在是免费功能 - PR
- 警报
- 在虚拟密钥/用户/团队更新时发送 Slack 警报现在是免费的 - PR
防护栏
- 防护栏
- 新增
/apply_guardrail
端点,用于直接测试防护栏 - PR
- 新增
- Lakera
- 支持
/v2
端点 - PR
- 支持
- Presidio
- Aim Security
- 在 AIM 防护栏中支持匿名化 - PR
性能 / 负载均衡 / 可靠性改进
通用代理改进
- 认证
- 在 x-litellm-api-key 自定义头部中处理 Bearer $LITELLM_API_KEY PR
- 新的企业版 pip 包 -
litellm-enterprise
- 修复了使用 pip 包时找不到enterprise
文件夹的问题 - 代理 CLI
- 添加
models import
命令 - PR
- 添加
- OpenWebUI
- 配置 LiteLLM 解析来自 Open Web UI 的用户头部
- LiteLLM 代理与 LiteLLM SDK
- 通过 LiteLLM SDK 调用时强制/始终使用 LiteLLM 代理的选项
新贡献者
- @imdigitalashish 在 PR #10617 中做出了首次贡献
- @LouisShark 在 PR #10688 中做出了首次贡献
- @OscarSavNS 在 PR #10764 中做出了首次贡献
- @arizedatngo 在 PR #10654 中做出了首次贡献
- @jugaldb 在 PR #10805 中做出了首次贡献
- @daikeren 在 PR #10781 中做出了首次贡献
- @naliotopier 在 PR #10077 中做出了首次贡献
- @damienpontifex 在 PR #10813 中做出了首次贡献
- @Dima-Mediator 在 PR #10789 中做出了首次贡献
- @igtm 在 PR #10814 中做出了首次贡献
- @shibaboy 在 PR #10752 中做出了首次贡献
- @camfarineau 在 PR #10629 中做出了首次贡献
- @ajac-zero 在 PR #10439 中做出了首次贡献
- @damgem 在 PR #9802 中做出了首次贡献
- @hxdror 在 PR #10757 中做出了首次贡献
- @wwwillchen 在 PR #10894 中做出了首次贡献
演示实例
这里有一个用于测试更改的演示实例
- 实例:https://demo.litellm.ai/
- 登录凭据
- 用户名:admin
- 密码:sk-1234