Провайдеры моделей¶
OpenClaw может использовать множество провайдеров LLM. Выберите один, выполните аутентификацию, затем задайте модель по умолчанию как provider/model.
Выделение: Venice (Venice AI)¶
Venice — наша рекомендуемая конфигурация Venice AI для приватной инференции с возможностью использовать Opus для самых сложных задач.
- По умолчанию:
venice/llama-3.3-70b - Лучший в целом:
venice/claude-opus-45(Opus остаётся самым сильным)
См. Venice AI.
Быстрый старт (два шага)¶
- Выполните аутентификацию у провайдера (обычно через
openclaw onboard). - Задайте модель по умолчанию:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
Поддерживаемые провайдеры (стартовый набор)¶
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- OpenRouter
- Vercel AI Gateway
- Cloudflare AI Gateway
- Moonshot AI (Kimi + Kimi Coding)
- Synthetic
- OpenCode Zen
- Z.AI
- GLM models
- MiniMax
- Venice (Venice AI)
- Amazon Bedrock
- Qianfan
Полный каталог провайдеров (xAI, Groq, Mistral и т. д.) и расширенную конфигурацию см. в разделе Model providers.