这些是自 v1.63.11-stable
以来的更改。
此版本带来了
- LLM 翻译改进 (MCP 支持和 Bedrock 应用配置文件)
- 基于用量的路由的性能改进
- 通过 websockets 支持流式传输安全防护
- Azure OpenAI 客户端性能修复 (来自上一个版本)
Docker Run LiteLLM Proxy
docker run
-e STORE_MODEL_IN_DB=True
-p 4000:4000
ghcr.io/berriai/litellm:main-v1.63.14-stable.patch1
演示实例
这里有一个演示实例用于测试更改
- 实例: https://demo.litellm.ai/
- 登录凭据
- 用户名: admin
- 密码: sk-1234
新模型 / 更新模型
- Azure gpt-4o - 修复定价至最新全球定价 - PR
- O1-Pro - 添加定价 + 模型信息 - PR
- Azure AI - mistral 3.1 small 添加定价 - PR
- Azure - gpt-4.5-preview 添加定价 - PR
LLM 翻译
- 新的 LLM 功能
- Bedrock: 支持 bedrock 应用推理配置文件 文档
- 从 bedrock 应用配置文件 ID 推断 aws 区域 - (
arn:aws:bedrock:us-east-1:...
)
- 从 bedrock 应用配置文件 ID 推断 aws 区域 - (
- Ollama - 支持通过
/v1/completions
调用 开始使用 - Bedrock - 支持
us.deepseek.r1-v1:0
模型名称 文档 - OpenRouter -
OPENROUTER_API_BASE
环境变量支持 文档 - Azure - 添加音频模型参数支持 - 文档
- OpenAI - PDF 文件支持 文档
- OpenAI - o1-pro Responses API 流式传输支持 文档
- [测试版]MCP - 在 LiteLLM SDK 中使用 MCP 工具 文档
- Bug 修复
- Voyage: 嵌入跟踪修复中的 prompt token - PR
- Sagemaker - 修复“Content-Length 声称的数据过少”错误 - PR
- OpenAI 兼容模型 - 修复在设置 custom_llm_provider 时调用 OpenAI 兼容模型的问题 - PR
- VertexAI - 嵌入 'outputDimensionality' 支持 - PR
- Anthropic - 在流式传输/非流式传输时返回一致的 json 响应格式 - PR
支出跟踪改进
litellm_proxy/
- 当使用客户端 SDK 时,支持从代理读取 litellm 响应成本头部- 重置预算任务 - 修复密钥/团队/用户上的预算重置错误 PR
- 流式传输 - 防止包含用量的最终块被忽略 (影响 bedrock 流式传输 + 成本跟踪) PR
UI
- 用户页面
- 功能: 控制默认内部用户设置 PR
- 图标
- 功能: 用本地 svg 替换外部 "artificialanalysis.ai" 图标 PR
- 登录/注销
- 修复: 当
default_user_id
用户在 DB 中不存在时的默认登录 PR
- 修复: 当
日志集成
- 支持流式传输响应的后置调用安全防护 开始使用
- Arize 开始使用
- StandardLoggingPayload - 在 payload 中记录 litellm_model_name。允许知道发送给 API 提供商的模型名称 开始使用
- Prompt 管理 - 允许构建自定义 prompt 管理集成 开始使用
性能 / 可靠性改进
- Redis 缓存 - 添加 5 秒默认超时,防止挂起的 redis 连接影响 llm 调用 PR
- 允许禁用所有支出更新/写入 DB - 补丁允许使用标志禁用所有支出更新到 DB PR
- Azure OpenAI - 正确重用 azure openai 客户端,修复上一个稳定版本中的性能问题 PR
- Azure OpenAI - 在 Azure/OpenAI 客户端上使用 litellm.ssl_verify PR
- 基于用量的路由 - 通配符模型支持 开始使用
- 基于用量的路由 - 支持批量写入增量到 redis - 将延迟降低到与 'simple-shuffle' 相同 PR
- 路由器 - 在“没有健康的部署可用错误”时显示模型冷却原因 PR
- 缓存 - 为内存缓存中的项添加最大值限制 (1MB) - 防止大型图像 url 通过代理发送时出现 OOM 错误 PR
常规改进
- 直通端点 - 支持在直通端点响应头部中返回 api-base 文档
- SSL - 支持从环境变量读取 ssl 安全级别 - 允许用户指定较低的安全设置 开始使用
- 凭据 - 仅当
STORE_MODEL_IN_DB
为 True 时才轮询 Credentials 表 PR - 图像 URL 处理 - 关于图像 URL 处理的新架构文档 文档
- OpenAI - 将 pip 安装 "openai==1.68.2" 提升 PR
- Gunicorn - 安全修复 - 将 gunicorn==23.0.0 提升 PR