Modellanbieter¶
OpenClaw kann viele LLM-Anbieter verwenden. Wählen Sie einen Anbieter aus, authentifizieren Sie sich und legen Sie dann das Standardmodell als provider/model fest.
Suchen Sie Dokumentation zu Chat-Kanälen (WhatsApp/Telegram/Discord/Slack/Mattermost (Plugin)/etc.)? Siehe Kanäle.
Highlight: Venice (Venice AI)¶
Venice ist unsere empfohlene Venice-AI-Einrichtung für datenschutzorientierte Inferenz mit der Option, Opus für anspruchsvolle Aufgaben zu verwenden.
- Standard:
venice/llama-3.3-70b - Insgesamt am besten:
venice/claude-opus-45(Opus bleibt am stärksten)
Siehe Venice AI.
Schnellstart¶
- Authentifizieren Sie sich beim Anbieter (in der Regel über
openclaw onboard). - Legen Sie das Standardmodell fest:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
Anbieterdokumentation¶
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- Qwen (OAuth)
- OpenRouter
- Vercel AI Gateway
- Cloudflare AI Gateway
- Moonshot AI (Kimi + Kimi Coding)
- OpenCode Zen
- Amazon Bedrock
- Z.AI
- Xiaomi
- GLM-Modelle
- MiniMax
- Venice (Venice AI, datenschutzorientiert)
- Ollama (lokale Modelle)
- Qianfan
Transkriptionsanbieter¶
Community-Werkzeuge¶
- Claude Max API Proxy – Verwenden Sie ein Claude-Max/Pro-Abonnement als OpenAI-kompatiblen API-Endpunkt
Für den vollständigen Anbieterkatalog (xAI, Groq, Mistral usw.) und erweiterte Konfigurationen siehe Modellanbieter.