跳至主要内容

使用量

LiteLLM 在所有提供商中返回兼容 OpenAI 的使用量对象。

"usage": {
"prompt_tokens": int,
"completion_tokens": int,
"total_tokens": int
}

快速入门

from litellm import completion
import os

## set ENV variables
os.environ["OPENAI_API_KEY"] = "your-api-key"

response = completion(
model="gpt-3.5-turbo",
messages=[{ "content": "Hello, how are you?","role": "user"}]
)

print(response.usage)

流式使用量

如果设置了 stream_options={"include_usage": True},在数据流之前将流式传输一个额外的块[DONE]消息。此块上的 usage 字段显示整个请求的 token 使用量统计信息,choices 字段始终是一个空数组。所有其他块也将包含 usage 字段,但其值为 null。

from litellm import completion 

completion = completion(
model="gpt-4o",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Hello!"}
],
stream=True,
stream_options={"include_usage": True}
)

for chunk in completion:
print(chunk.choices[0].delta)