Modeludbydere¶
OpenClaw kan bruge mange LLM udbydere. Vælg en udbyder, autentisk, og angiv derefter standardmodellen
som udbyder/model.
Leder du efter chat channel docs (WhatsApp/Telegram/Discord/Slack/Mattermost (plugin)/etc.)? Se Channels.
Højdepunkt: Venice (Venice AI)¶
Venice er vores anbefalede Venice AI-opsætning til privatlivs-først-inferens med mulighed for at bruge Opus til krævende opgaver.
- Standard:
venice/llama-3.3-70b - Bedst samlet set:
venice/claude-opus-45(Opus er fortsat den stærkeste)
Se Venice AI.
Hurtig start¶
- Autentificér med udbyderen (normalt via
openclaw onboard). - Sæt standardmodellen:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
Udbyderdokumentation¶
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- Qwen (OAuth)
- OpenRouter
- Vercel AI Gateway
- Cloudflare AI Gateway
- Moonshot AI (Kimi + Kimi Coding)
- OpenCode Zen
- Amazon Bedrock
- Z.AI
- Xiaomi
- GLM-modeller
- MiniMax
- Venice (Venice AI, privatlivsfokuseret)
- Ollama (lokale modeller)
- Qianfan
Transskriptionsudbydere¶
Community-værktøjer¶
- Claude Max API Proxy – Brug Claude Max/Pro-abonnement som et OpenAI-kompatibelt API-endpoint
For hele udbyderkatalog (xAI, Groq, Mistral, osv.) og avanceret konfiguration, se Modeludbydere.