跳至主要内容

CLI - 快速入门

通过 CLI 快速设置 LiteLLM 代理。

LiteLLM 服务器(LLM 网关)管理

$ pip install 'litellm[proxy]'

快速入门 - LiteLLM 代理 CLI

运行以下命令以启动 LiteLLM 代理

$ litellm --model huggingface/bigcode/starcoder

#INFO: Proxy running on http://0.0.0.0:4000
信息

如果需要详细的调试日志,请使用 --detailed_debug 运行

$ litellm --model huggingface/bigcode/starcoder --detailed_debug

测试

在新的 shell 中运行此命令,它将发起一个 openai.chat.completions 请求。请确保你使用的是 openai v1.0.0+

litellm --test

现在,这会自动将任何对 gpt-3.5-turbo 的请求路由到托管在 huggingface 推理端点上的 bigcode starcoder。

支持的 LLM

LiteLLM 支持的所有 LLM 均可在代理上使用。查看所有 受支持的 LLM

$ export AWS_ACCESS_KEY_ID=
$ export AWS_REGION_NAME=
$ export AWS_SECRET_ACCESS_KEY=
$ litellm --model bedrock/anthropic.claude-v2

快速入门 - LiteLLM 代理 + Config.yaml

配置允许你创建模型列表并设置 api_basemax_tokens(所有 litellm 参数)。有关配置的更多详细信息,请查看 此处

为 LiteLLM 代理创建配置

示例配置

model_list: 
- model_name: gpt-3.5-turbo # user-facing model alias
litellm_params: # all params accepted by litellm.completion() - https://docs.litellm.com.cn/docs/completion/input
model: azure/<your-deployment-name>
api_base: <your-azure-api-endpoint>
api_key: <your-azure-api-key>
- model_name: gpt-3.5-turbo
litellm_params:
model: azure/gpt-turbo-small-ca
api_base: https://my-endpoint-canada-berri992.openai.azure.com/
api_key: <your-azure-api-key>
- model_name: vllm-model
litellm_params:
model: openai/<your-model-name>
api_base: <your-vllm-api-base> # e.g. http://0.0.0.0:3000/v1
api_key: <your-vllm-api-key|none>

使用配置运行代理

litellm --config your_config.yaml

使用 LiteLLM 代理 - Curl 请求、OpenAI 包、Langchain

信息

LiteLLM 与多种 SDK 兼容,包括 OpenAI SDK、Anthropic SDK、Mistral SDK、LLamaIndex、Langchain (Js, Python)

更多示例请见此处

curl --location 'http://0.0.0.0:4000/chat/completions' \
--header 'Content-Type: application/json' \
--data ' {
"model": "gpt-3.5-turbo",
"messages": [
{
"role": "user",
"content": "what llm are you"
}
]
}
'

更多信息

📖 代理端点 - Swagger 文档

  • POST /chat/completions - 用于调用 100+ LLM 的聊天补全端点
  • POST /completions - 补全端点
  • POST /embeddings - 用于 Azure、OpenAI、Huggingface 端点的嵌入端点
  • GET /models - 服务器上可用的模型
  • POST /key/generate - 生成用于访问代理的密钥

调试代理

正常操作期间发生的事件

litellm --model gpt-3.5-turbo --debug

详细信息

litellm --model gpt-3.5-turbo --detailed_debug

使用环境变量设置调试级别

正常操作期间发生的事件

export LITELLM_LOG=INFO

详细信息

export LITELLM_LOG=DEBUG

无日志

export LITELLM_LOG=None