跳到主要内容

将 LiteLLM 与 OpenAI Codex 结合使用

本指南将引导您完成将 OpenAI Codex 连接到 LiteLLM 的过程。将 LiteLLM 与 Codex 结合使用使团队能够

  • 通过 Codex 界面访问 100+ LLM
  • 通过熟悉的界面使用 Gemini 等强大模型
  • 使用 LiteLLM 内置的分析功能跟踪支出和使用情况
  • 使用虚拟密钥控制模型访问

快速入门

信息

需要 LiteLLM v1.66.3.dev5 及更高版本

请务必按照LiteLLM 入门指南设置 LiteLLM。

1. 安装 OpenAI Codex

使用 npm 全局安装 OpenAI Codex CLI 工具

npm i -g @openai/codex

2. 启动 LiteLLM 代理

docker run \
-v $(pwd)/litellm_config.yaml:/app/config.yaml \
-p 4000:4000 \
ghcr.io/berriai/litellm:main-latest \
--config /app/config.yaml

LiteLLM 现在应该正在 https://:4000 运行

3. 配置 LiteLLM 进行模型路由

确保您的 LiteLLM 代理已正确配置,以便路由到您期望的模型。创建一个包含以下内容的 litellm_config.yaml 文件

model_list:
- model_name: o3-mini
litellm_params:
model: openai/o3-mini
api_key: os.environ/OPENAI_API_KEY
- model_name: claude-3-7-sonnet-latest
litellm_params:
model: anthropic/claude-3-7-sonnet-latest
api_key: os.environ/ANTHROPIC_API_KEY
- model_name: gemini-2.0-flash
litellm_params:
model: gemini/gemini-2.0-flash
api_key: os.environ/GEMINI_API_KEY

litellm_settings:
drop_params: true

此配置启用对特定 OpenAI、Anthropic 和 Gemini 模型的显式命名路由。

4. 配置 Codex 使用 LiteLLM 代理

设置必需的环境变量,将 Codex 指向您的 LiteLLM 代理

# Point to your LiteLLM Proxy server
export OPENAI_BASE_URL=http://0.0.0.0:4000

# Use your LiteLLM API key (if you've set up authentication)
export OPENAI_API_KEY="sk-1234"

5. 使用 Gemini 运行 Codex

配置完成后,您现在可以使用 Gemini 运行 Codex

codex --model gemini-2.0-flash --full-auto

`--full-auto` 标志允许 Codex 自动生成代码,无需额外提示。

6. 高级选项

使用不同模型

您可以使用在 LiteLLM 代理中配置的任何模型

# Use Claude models
codex --model claude-3-7-sonnet-latest

# Use Google AI Studio Gemini models
codex --model gemini/gemini-2.0-flash

故障排除

  • 如果遇到连接问题,请确保您的 LiteLLM 代理正在运行并可在指定的 URL 访问
  • 如果您使用身份验证,请验证您的 LiteLLM API 密钥是否有效
  • 检查您的模型路由配置是否正确
  • 对于特定模型的错误,请确保在您的 LiteLLM 设置中正确配置了该模型

其他资源