Arize Phoenix OSS
开源追踪和评估平台
提示
这是社区维护的项目,如果您遇到 bug,请提交 issue:https://github.com/BerriAI/litellm
前置条件
在 Phoenix OSS 上创建账户 或 自行托管您的 Phoenix 实例
快速开始
只需使用 2 行代码,即可立即使用 Phoenix 记录您在所有提供商上的响应
您也可以使用 instrumentor 选项代替 callback,您可以在此处找到相关信息:此处。
pip install opentelemetry-api opentelemetry-sdk opentelemetry-exporter-otlp litellm[proxy]
litellm.callbacks = ["arize_phoenix"]
import litellm
import os
os.environ["PHOENIX_API_KEY"] = "" # Necessary only using Phoenix Cloud
os.environ["PHOENIX_COLLECTOR_HTTP_ENDPOINT"] = "" # The URL of your Phoenix OSS instance e.g. http://localhost:6006/v1/traces
# This defaults to https://app.phoenix.arize.com/v1/traces for Phoenix Cloud
# LLM API Keys
os.environ['OPENAI_API_KEY']=""
# set arize as a callback, litellm will send the data to arize
litellm.callbacks = ["arize_phoenix"]
# openai call
response = litellm.completion(
model="gpt-3.5-turbo",
messages=[
{"role": "user", "content": "Hi 👋 - i'm openai"}
]
)
与 LiteLLM 代理一起使用
model_list:
- model_name: gpt-4o
litellm_params:
model: openai/fake
api_key: fake-key
api_base: https://exampleopenaiendpoint-production.up.railway.app/
litellm_settings:
callbacks: ["arize_phoenix"]
environment_variables:
PHOENIX_API_KEY: "d0*****"
PHOENIX_COLLECTOR_ENDPOINT: "https://app.phoenix.arize.com/v1/traces" # OPTIONAL, for setting the GRPC endpoint
PHOENIX_COLLECTOR_HTTP_ENDPOINT: "https://app.phoenix.arize.com/v1/traces" # OPTIONAL, for setting the HTTP endpoint
支持与创始人交流
- 安排演示 👋
- 社区 Discord 💭
- 我们的电话 📞 +1 (770) 8783-106 / +1 (412) 618-6238
- 我们的邮箱 ✉️ ishaan@berri.ai / krrish@berri.ai