Modellleverantörer¶
OpenClaw kan använda många LMM-leverantörer. Välj en, autentisera, ställ sedan in standardmodellen
som provider/model.
Höjdpunkt: Venice (Venice AI)¶
Venice är vår rekommenderade Venice AI-konfiguration för integritetsfokuserad inferens, med möjlighet att använda Opus för de svåraste uppgifterna.
- Standard:
venice/llama-3.3-70b - Bäst totalt sett:
venice/claude-opus-45(Opus är fortfarande starkast)
Se Venice AI.
Snabbstart (två steg)¶
- Autentisera med leverantören (vanligtvis via
openclaw onboard). - Ställ in standardmodellen:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
Stödda leverantörer (startuppsättning)¶
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- OpenRouter
- Vercel AI Gateway
- Cloudflare AI Gateway
- Moonshot AI (Kimi + Kimi Coding)
- Synthetic
- OpenCode Zen
- Z.AI
- GLM-modeller
- MiniMax
- Venice (Venice AI)
- Amazon Bedrock
- Qianfan
För hela leverantörskatalogen (xAI, Groq, Mistral, etc.) och avancerad konfiguration, se Modellleverantörer.