Snowflake
属性 | 详情 |
---|---|
描述 | Snowflake Cortex LLM REST API 允许您通过 HTTP POST 请求访问 COMPLETE 功能 |
LiteLLM 上的提供商路由 | snowflake/ |
提供商文档链接 | Snowflake ↗ |
基础 URL | https://{account-id}.snowflakecomputing.com/api/v2/cortex/inference:complete/ |
支持的 OpenAI 端点 | /chat/completions , /completions |
目前,Snowflake 的 REST API 没有针对 snowflake-arctic-embed
嵌入模型的端点。如果您想将这些嵌入模型与 Litellm 一起使用,可以通过我们的 Hugging Face 提供商调用它们。
在 Hugging Face 上查找 Arctic Embed 模型。
支持的 OpenAI 参数
"temperature",
"max_tokens",
"top_p",
"response_format"
API 密钥
Snowflake 不提供 API 密钥。相反,您需要使用 JWT 令牌和账户标识符访问 Snowflake API。
import os
os.environ["SNOWFLAKE_JWT"] = "YOUR JWT"
os.environ["SNOWFLAKE_ACCOUNT_ID"] = "YOUR ACCOUNT IDENTIFIER"
用法
from litellm import completion
## set ENV variables
os.environ["SNOWFLAKE_JWT"] = "YOUR JWT"
os.environ["SNOWFLAKE_ACCOUNT_ID"] = "YOUR ACCOUNT IDENTIFIER"
# Snowflake call
response = completion(
model="snowflake/mistral-7b",
messages = [{ "content": "Hello, how are you?","role": "user"}]
)
与 LiteLLM 代理一起使用
1. 必需的环境变量
export SNOWFLAKE_JWT=""
export SNOWFLAKE_ACCOUNT_ID = ""
2. 启动代理~
model_list:
- model_name: mistral-7b
litellm_params:
model: snowflake/mistral-7b
api_key: YOUR_API_KEY
api_base: https://YOUR-ACCOUNT-ID.snowflakecomputing.com/api/v2/cortex/inference:complete
litellm --config /path/to/config.yaml
3. 测试
curl --location 'http://0.0.0.0:4000/chat/completions' \
--header 'Content-Type: application/json' \
--data ' {
"model": "snowflake/mistral-7b",
"messages": [
{
"role": "user",
"content": "Hello, how are you?"
}
]
}
'