Provedores de modelo¶
O OpenClaw pode usar muitos provedores de LLM. Escolha um, autentique e, em seguida, defina o
modelo padrão como provider/model.
Destaque: Venice (Venice AI)¶
Venice é nossa configuração recomendada do Venice AI para inferência com foco em privacidade, com a opção de usar Opus para as tarefas mais difíceis.
- Padrão:
venice/llama-3.3-70b - Melhor no geral:
venice/claude-opus-45(Opus continua sendo o mais forte)
Veja Venice AI.
Início rápido (dois passos)¶
- Autentique-se com o provedor (geralmente via
openclaw onboard). - Defina o modelo padrão:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
Provedores compatíveis (conjunto inicial)¶
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- OpenRouter
- Vercel AI Gateway
- Cloudflare AI Gateway
- Moonshot AI (Kimi + Kimi Coding)
- Synthetic
- OpenCode Zen
- Z.AI
- Modelos GLM
- MiniMax
- Venice (Venice AI)
- Amazon Bedrock
- Qianfan
Para o catálogo completo de provedores (xAI, Groq, Mistral etc.) e configuração avançada, veja Provedores de modelo.