Provedores de modelo¶
O OpenClaw pode usar muitos provedores de LLM. Escolha um provedor, autentique-se e, em seguida, defina o
modelo padrão como provider/model.
Procurando documentação de canais de chat (WhatsApp/Telegram/Discord/Slack/Mattermost (plugin)/etc.)? Veja Canais.
Destaque: Venice (Venice AI)¶
Venice é nossa configuração recomendada do Venice AI para inferência com foco em privacidade, com a opção de usar o Opus para tarefas difíceis.
- Padrão:
venice/llama-3.3-70b - Melhor no geral:
venice/claude-opus-45(o Opus continua sendo o mais forte)
Veja Venice AI.
Início rápido¶
- Autentique-se com o provedor (geralmente via
openclaw onboard). - Defina o modelo padrão:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
Documentação dos provedores¶
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- Qwen (OAuth)
- OpenRouter
- Vercel AI Gateway
- Cloudflare AI Gateway
- Moonshot AI (Kimi + Kimi Coding)
- OpenCode Zen
- Amazon Bedrock
- Z.AI
- Xiaomi
- Modelos GLM
- MiniMax
- Venice (Venice AI, com foco em privacidade)
- Ollama (modelos locais)
- Qianfan
Provedores de transcrição¶
Ferramentas da comunidade¶
- Claude Max API Proxy - Use a assinatura Claude Max/Pro como um endpoint de API compatível com OpenAI
Para o catálogo completo de provedores (xAI, Groq, Mistral, etc.) e configuração avançada, veja Provedores de modelo.