Modelproviders¶
OpenClaw kan veel LLM-providers gebruiken. Kies een provider, authenticeer en stel vervolgens
het standaardmodel in als provider/model.
Op zoek naar documentatie over chatkanalen (WhatsApp/Telegram/Discord/Slack/Mattermost (plugin)/etc.)? Zie Kanalen.
Uitgelicht: Venice (Venice AI)¶
Venice is onze aanbevolen Venice AI-configuratie voor privacy-first inferentie met een optie om Opus te gebruiken voor zware taken.
- Standaard:
venice/llama-3.3-70b - Beste overall:
venice/claude-opus-45(Opus blijft de sterkste)
Zie Venice AI.
Snelle start¶
- Authenticeer bij de provider (meestal via
openclaw onboard). - Stel het standaardmodel in:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
Providerdocumentatie¶
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- Qwen (OAuth)
- OpenRouter
- Vercel AI Gateway
- Cloudflare AI Gateway
- Moonshot AI (Kimi + Kimi Coding)
- OpenCode Zen
- Amazon Bedrock
- Z.AI
- Xiaomi
- GLM-modellen
- MiniMax
- Venice (Venice AI, privacygericht)
- Ollama (lokale modellen)
- Qianfan
Transcriptieproviders¶
Communitytools¶
- Claude Max API Proxy - Gebruik een Claude Max/Pro-abonnement als een OpenAI-compatibel API-eindpunt
Voor de volledige providercatalogus (xAI, Groq, Mistral, enz.) en geavanceerde configuratie, zie Modelproviders.