模型提供者¶
OpenClaw 可以使用許多 LLM 供應商。選擇一個供應商,完成驗證,然後設定
default model as provider/model.
在找聊天頻道文件(WhatsApp/Telegram/Discord/Slack/Mattermost(外掛)/等)嗎?請參閱 頻道。 See Channels.
重點推薦:Venice(Venice AI)¶
Venice 是我們推薦的 Venice AI 設定,提供以隱私優先的推論,並可選擇在高難度任務中使用 Opus。
- 預設:
venice/llama-3.3-70b - 整體最佳:
venice/claude-opus-45(Opus 仍然最強)
請參閱 Venice AI。
快速開始¶
- 使用提供者完成身分驗證(通常透過
openclaw onboard)。 - 設定預設模型:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
提供者文件¶
- OpenAI(API + Codex)
- Anthropic(API + Claude Code CLI)
- Qwen(OAuth)
- OpenRouter
- Vercel AI Gateway
- Cloudflare AI Gateway
- Moonshot AI(Kimi + Kimi Coding)
- OpenCode Zen
- Amazon Bedrock
- Z.AI
- Xiaomi
- GLM 模型
- MiniMax
- Venice(Venice AI,隱私導向)
- Ollama(本地模型)
- Qianfan
轉錄提供者¶
社群工具¶
- Claude Max API Proxy - 將 Claude Max/Pro 訂閱作為相容 OpenAI 的 API 端點使用
For the full provider catalog (xAI, Groq, Mistral, etc.) and advanced configuration, see Model providers.