将 LiteLLM 与 OpenAI Codex 结合使用
本指南将引导您完成将 OpenAI Codex 连接到 LiteLLM 的过程。将 LiteLLM 与 Codex 结合使用使团队能够
- 通过 Codex 界面访问 100+ LLM
- 通过熟悉的界面使用 Gemini 等强大模型
- 使用 LiteLLM 内置的分析功能跟踪支出和使用情况
- 使用虚拟密钥控制模型访问

快速入门
信息
需要 LiteLLM v1.66.3.dev5 及更高版本
请务必按照LiteLLM 入门指南设置 LiteLLM。
1. 安装 OpenAI Codex
使用 npm 全局安装 OpenAI Codex CLI 工具
- npm
- yarn
npm i -g @openai/codex
yarn global add @openai/codex
2. 启动 LiteLLM 代理
- Docker
- LiteLLM CLI
docker run \
-v $(pwd)/litellm_config.yaml:/app/config.yaml \
-p 4000:4000 \
ghcr.io/berriai/litellm:main-latest \
--config /app/config.yaml
litellm --config /path/to/config.yaml
LiteLLM 现在应该正在 https://:4000 运行
3. 配置 LiteLLM 进行模型路由
确保您的 LiteLLM 代理已正确配置,以便路由到您期望的模型。创建一个包含以下内容的 litellm_config.yaml
文件
model_list:
- model_name: o3-mini
litellm_params:
model: openai/o3-mini
api_key: os.environ/OPENAI_API_KEY
- model_name: claude-3-7-sonnet-latest
litellm_params:
model: anthropic/claude-3-7-sonnet-latest
api_key: os.environ/ANTHROPIC_API_KEY
- model_name: gemini-2.0-flash
litellm_params:
model: gemini/gemini-2.0-flash
api_key: os.environ/GEMINI_API_KEY
litellm_settings:
drop_params: true
此配置启用对特定 OpenAI、Anthropic 和 Gemini 模型的显式命名路由。
4. 配置 Codex 使用 LiteLLM 代理
设置必需的环境变量,将 Codex 指向您的 LiteLLM 代理
# Point to your LiteLLM Proxy server
export OPENAI_BASE_URL=http://0.0.0.0:4000
# Use your LiteLLM API key (if you've set up authentication)
export OPENAI_API_KEY="sk-1234"
5. 使用 Gemini 运行 Codex
配置完成后,您现在可以使用 Gemini 运行 Codex
codex --model gemini-2.0-flash --full-auto

`--full-auto` 标志允许 Codex 自动生成代码,无需额外提示。
6. 高级选项
使用不同模型
您可以使用在 LiteLLM 代理中配置的任何模型
# Use Claude models
codex --model claude-3-7-sonnet-latest
# Use Google AI Studio Gemini models
codex --model gemini/gemini-2.0-flash
故障排除
- 如果遇到连接问题,请确保您的 LiteLLM 代理正在运行并可在指定的 URL 访问
- 如果您使用身份验证,请验证您的 LiteLLM API 密钥是否有效
- 检查您的模型路由配置是否正确
- 对于特定模型的错误,请确保在您的 LiteLLM 设置中正确配置了该模型