这些是自 v1.61.20-stable
以来发生的更改。
此版本主要侧重于
- LLM 翻译改进(更多
thinking
内容改进) - UI 改进(错误日志现在在 UI 上显示)
信息
此版本将于 2025/03/09 生效
演示实例
这是一个用于测试更改的演示实例
- 实例: https://demo.litellm.ai/
- 登录凭据
- 用户名: admin
- 密码: sk-1234
新模型 / 更新的模型
LLM 翻译
- 支持 Assistant 端点的
/openai/
直通。 开始使用 - Bedrock Claude - 修复 invoke 路由上的工具调用转换。 开始使用
- Bedrock Claude - 在 invoke 路由上支持 claude 的 response_format。 开始使用
- Bedrock - 如果 response_format 中设置了
description
,则传递它。 开始使用 - Bedrock - 修复传递 response_format: {"type": "text"}。 PR
- OpenAI - 处理将 image_url 作为 str 发送到 openai。 开始使用
- Deepseek - 流式处理中缺少 'reasoning_content' 返回。 开始使用
- 缓存 - 支持对 reasoning content 进行缓存。 开始使用
- Bedrock - 处理助理消息中的 thinking 块。 开始使用
- Anthropic - 在流式处理中返回
signature
。 开始使用
- 注意: 我们已从
signature_delta
迁移到signature
。 阅读更多
- 注意: 这重构了[BETA]统一的
/v1/messages
端点,使其仅适用于 Anthropic API。
- Vertex AI - 调用 vertex ai 时处理响应模式中的 $id。 开始使用
支出跟踪改进
管理端点 / UI
- 虚拟密钥页面
- 允许在创建密钥页面上搜索团队/组织过滤器
- 向 Keys 表添加 created_by 和 updated_by 字段
- 在密钥表上显示“user_email”
- 每页显示 100 个密钥,使用全高,增加密钥别名的宽度
- 日志页面
- 在 LiteLLM UI 上显示错误日志
- 允许内部用户查看自己的日志
- 内部用户页面
- 允许管理员控制内部用户的默认模型访问权限
- 修复使用 cookie 的会话处理
日志记录 / 防护集成
- 修复 Prometheus 指标与自定义指标,当包含 team_id 的密钥发出请求时。 PR
性能 / 负载均衡 / 可靠性改进
通用代理改进
- 当请求中传递未知模型时,引发 BadRequestError
- 在 Azure OpenAI 代理路由上强制执行模型访问限制
- 可靠性修复 - 处理文本中的 emoji - 修复 orjson 错误
- 模型访问补丁 - 运行身份验证检查时,不要覆盖 litellm.anthropic_models
- 启用在 docker 镜像中设置时区信息