模型提供者¶
OpenClaw can use many LLM providers. 30. 選擇其中一個,完成驗證,然後將預設
模型設為 provider/model。
重點:Venice(Venice AI)¶
Venice 是我們建議的 Venice AI 設定,主打隱私優先的推論,並可在最困難的任務中選用 Opus。
- 預設:
venice/llama-3.3-70b - 整體最佳:
venice/claude-opus-45(Opus 仍然最強)
請參閱 Venice AI。
快速開始(兩個步驟)¶
- 與提供者完成身分驗證(通常透過
openclaw onboard)。 - 設定預設模型:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
支援的提供者(入門組)¶
- OpenAI(API + Codex)
- Anthropic(API + Claude Code CLI)
- OpenRouter
- Vercel AI Gateway
- Cloudflare AI Gateway
- Moonshot AI(Kimi + Kimi Coding)
- Synthetic
- OpenCode Zen
- Z.AI
- GLM models
- MiniMax
- Venice(Venice AI)
- Amazon Bedrock
- Qianfan
For the full provider catalog (xAI, Groq, Mistral, etc.) and advanced configuration, see Model providers.