Fournisseurs de modèles¶
OpenClaw peut utiliser de nombreux fournisseurs de LLM. Choisissez un fournisseur, authentifiez-vous, puis définissez le
modèle par défaut sur provider/model.
Vous cherchez la documentation des canaux de discussion (WhatsApp/Telegram/Discord/Slack/Mattermost (plugin)/etc.) ? Voir Canaux.
Mise en avant : Venice (Venice AI)¶
Venice est notre configuration Venice AI recommandée pour une inférence axée sur la confidentialité, avec la possibilité d’utiliser Opus pour les tâches difficiles.
- Par défaut :
venice/llama-3.3-70b - Meilleur choix global :
venice/claude-opus-45(Opus reste le plus performant)
Voir Venice AI.
Demarrage rapide¶
- Authentifiez-vous auprès du fournisseur (généralement via
openclaw onboard). - Définissez le modèle par défaut :
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
Documentation des fournisseurs¶
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- Qwen (OAuth)
- OpenRouter
- LiteLLM (unified gateway)
- Vercel AI Gateway
- Together AI
- Cloudflare AI Gateway
- Moonshot AI (Kimi + Kimi Coding)
- OpenCode Zen
- Amazon Bedrock
- Z.AI
- Xiaomi
- Modèles GLM
- MiniMax
- Venice (Venice AI, axé sur la confidentialité)
- Hugging Face (Inference)
- Ollama (modèles locaux)
- vLLM (local models)
- Qianfan
- NVIDIA
Fournisseurs de transcription¶
Outils communautaires¶
- Claude Max API Proxy - Utilisez un abonnement Claude Max/Pro comme point de terminaison d’API compatible OpenAI
Pour le catalogue complet des fournisseurs (xAI, Groq, Mistral, etc.) et la configuration avancée, voir Fournisseurs de modèles.