Mga Provider ng Model¶
Maaaring gumamit ang OpenClaw ng maraming LLM provider. Pumili ng isa, mag-authenticate, pagkatapos ay itakda bilang default
model as provider/model.
Tampok: Venice (Venice AI)¶
Ang Venice ang aming inirerekomendang setup ng Venice AI para sa privacy-first inference na may opsyong gumamit ng Opus para sa pinakamahihirap na gawain.
- Paunang nakatakda:
venice/llama-3.3-70b - Pinakamahusay sa kabuuan:
venice/claude-opus-45(Nanatiling pinakamalakas ang Opus)
Tingnan ang Venice AI.
Mabilis na pagsisimula (dalawang hakbang)¶
- Mag-authenticate sa provider (karaniwan sa pamamagitan ng
openclaw onboard). - Itakda ang default na model:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
Mga sinusuportahang provider (starter set)¶
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- OpenRouter
- Vercel AI Gateway
- Cloudflare AI Gateway
- Moonshot AI (Kimi + Kimi Coding)
- Synthetic
- OpenCode Zen
- Z.AI
- GLM models
- MiniMax
- Venice (Venice AI)
- Amazon Bedrock
- Qianfan
For the full provider catalog (xAI, Groq, Mistral, etc.) and advanced configuration, see Model providers.