Mga Model Provider¶
Maaaring gumamit ang OpenClaw ng maraming LLM provider. Pumili ng provider, mag-authenticate, pagkatapos ay itakda ang
default model as provider/model.
Naghahanap ng mga dokumento para sa chat channel (WhatsApp/Telegram/Discord/Slack/Mattermost (plugin)/atbp.)? Tingnan ang Channels.
Tampok: Venice (Venice AI)¶
Ang Venice ang aming inirerekomendang Venice AI setup para sa privacy-first inference, na may opsyong gumamit ng Opus para sa mahihirap na gawain.
- Default:
venice/llama-3.3-70b - Pinakamahusay sa pangkalahatan:
venice/claude-opus-45(nanatiling pinakamalakas ang Opus)
Tingnan ang Venice AI.
Mabilis na pagsisimula¶
- Mag-authenticate sa provider (karaniwan sa pamamagitan ng
openclaw onboard). - Itakda ang default na model:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
Mga doc ng provider¶
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- Qwen (OAuth)
- OpenRouter
- Vercel AI Gateway
- Cloudflare AI Gateway
- Moonshot AI (Kimi + Kimi Coding)
- OpenCode Zen
- Amazon Bedrock
- Z.AI
- Xiaomi
- GLM models
- MiniMax
- Venice (Venice AI, nakatuon sa privacy)
- Ollama (mga lokal na model)
- Qianfan
Mga transcription provider¶
Mga community tool¶
- Claude Max API Proxy - Gamitin ang Claude Max/Pro subscription bilang OpenAI-compatible na API endpoint
For the full provider catalog (xAI, Groq, Mistral, etc.) and advanced configuration, see Model providers.