Dostawcy modeli¶
OpenClaw może korzystać z wielu dostawców LLM. Wybierz dostawcę, uwierzytelnij się, a następnie ustaw
model domyślny jako provider/model.
Szukasz dokumentacji kanałów czatu (WhatsApp/Telegram/Discord/Slack/Mattermost (wtyczka)/itp.)? Zobacz Kanały.
Wyróżnienie: Venice (Venice AI)¶
Venice to nasza rekomendowana konfiguracja Venice AI, ukierunkowana na prywatność wnioskowania, z opcją użycia Opus do trudnych zadań.
- Domyślny:
venice/llama-3.3-70b - Najlepszy ogólnie:
venice/claude-opus-45(Opus pozostaje najsilniejszy)
Zobacz Venice AI.
Szybki start¶
- Uwierzytelnij się u dostawcy (zwykle przez
openclaw onboard). - Ustaw model domyślny:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
Dokumentacja dostawców¶
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- Qwen (OAuth)
- OpenRouter
- Vercel AI Gateway
- Cloudflare AI Gateway
- Moonshot AI (Kimi + Kimi Coding)
- OpenCode Zen
- Amazon Bedrock
- Z.AI
- Xiaomi
- Modele GLM
- MiniMax
- Venice (Venice AI, zorientowane na prywatność)
- Ollama (modele lokalne)
- Qianfan
Dostawcy transkrypcji¶
Narzędzia społecznościowe¶
- Claude Max API Proxy – Używaj subskrypcji Claude Max/Pro jako punktu końcowego API zgodnego z OpenAI
Pełny katalog dostawców (xAI, Groq, Mistral itd.) oraz zaawansowaną konfigurację znajdziesz w sekcji Dostawcy modeli.