Modellleverantörer¶
OpenClaw kan använda många LMM-leverantörer. Välj en leverantör, autentisera, sätt sedan
standardmodell som provider/model.
Letar du efter chattkanal docs (WhatsApp/Telegram/Discord/Slack/Mattermost (plugin)/etc.)? Se Channels.
Höjdpunkt: Venice (Venice AI)¶
Venice är vår rekommenderade Venice AI-konfiguration för integritetsfokuserad inferens, med möjlighet att använda Opus för svåra uppgifter.
- Standard:
venice/llama-3.3-70b - Bäst totalt:
venice/claude-opus-45(Opus är fortfarande starkast)
Se Venice AI.
Snabbstart¶
- Autentisera med leverantören (vanligtvis via
openclaw onboard). - Ställ in standardmodellen:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
Leverantörsdokumentation¶
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- Qwen (OAuth)
- OpenRouter
- Vercel AI Gateway
- Cloudflare AI Gateway
- Moonshot AI (Kimi + Kimi Coding)
- OpenCode Zen
- Amazon Bedrock
- Z.AI
- Xiaomi
- GLM-modeller
- MiniMax
- Venice (Venice AI, integritetsfokuserad)
- Ollama (lokala modeller)
- Qianfan
Transkriptionsleverantörer¶
Community-verktyg¶
- Claude Max API Proxy – Använd Claude Max/Pro-prenumeration som en OpenAI-kompatibel API-slutpunkt
För hela leverantörskatalogen (xAI, Groq, Mistral, etc.) och avancerad konfiguration, se Modellleverantörer.