跳到主要内容

快速入门

快速入门 CLI、配置、Docker

LiteLLM Server (LLM 网关) 管理

$ pip install 'litellm[proxy]'

快速入门 - LiteLLM 代理 CLI

运行以下命令启动 litellm 代理

$ litellm --model huggingface/bigcode/starcoder

#INFO: Proxy running on http://0.0.0.0:4000
信息

如果需要详细的调试日志,请运行 --detailed_debug

$ litellm --model huggingface/bigcode/starcoder --detailed_debug

测试

在新 shell 中运行,这将发出 openai.chat.completions 请求。确保您使用 openai v1.0.0+

litellm --test

现在,这会自动将任何针对 gpt-3.5-turbo 的请求路由到托管在 Huggingface 推理端点上的 bigcode starcoder。

支持的 LLM

所有 LiteLLM 支持的 LLM 都支持在代理上使用。查看所有 支持的 LLM

$ export AWS_ACCESS_KEY_ID=
$ export AWS_REGION_NAME=
$ export AWS_SECRET_ACCESS_KEY=
$ litellm --model bedrock/anthropic.claude-v2

快速入门 - LiteLLM 代理 + Config.yaml

配置允许您创建模型列表并设置 api_base, max_tokens (所有 litellm 参数)。在此查看有关配置的更多详细信息 此处

为 LiteLLM 代理创建配置

示例配置

model_list: 
- model_name: gpt-3.5-turbo # user-facing model alias
litellm_params: # all params accepted by litellm.completion() - https://docs.litellm.com.cn/docs/completion/input
model: azure/<your-deployment-name>
api_base: <your-azure-api-endpoint>
api_key: <your-azure-api-key>
- model_name: gpt-3.5-turbo
litellm_params:
model: azure/gpt-turbo-small-ca
api_base: https://my-endpoint-canada-berri992.openai.azure.com/
api_key: <your-azure-api-key>
- model_name: vllm-model
litellm_params:
model: openai/<your-model-name>
api_base: <your-vllm-api-base> # e.g. http://0.0.0.0:3000/v1
api_key: <your-vllm-api-key|none>

使用配置运行代理

litellm --config your_config.yaml

使用 LiteLLM 代理 - Curl 请求、OpenAI 包、Langchain

信息

LiteLLM 兼容多种 SDK - 包括 OpenAI SDK、Anthropic SDK、Mistral SDK、LLamaIndex、Langchain (Js, Python)

更多示例在此

curl --location 'http://0.0.0.0:4000/chat/completions' \
--header 'Content-Type: application/json' \
--data ' {
"model": "gpt-3.5-turbo",
"messages": [
{
"role": "user",
"content": "what llm are you"
}
]
}
'

更多信息

📖 代理端点 - Swagger 文档

  • POST /chat/completions - 调用 100+ LLM 的聊天补全端点
  • POST /completions - 补全端点
  • POST /embeddings - 用于 Azure、OpenAI、Huggingface 端点的嵌入端点
  • GET /models - 服务器上可用模型
  • POST /key/generate - 生成访问代理的密钥

调试代理

正常运行期间发生的事件

litellm --model gpt-3.5-turbo --debug

详细信息

litellm --model gpt-3.5-turbo --detailed_debug

使用环境变量设置调试级别

正常运行期间发生的事件

export LITELLM_LOG=INFO

详细信息

export LITELLM_LOG=DEBUG

无日志

export LITELLM_LOG=None