Провайдеры моделей¶
OpenClaw может использовать множество провайдеров LLM. Выберите провайдера, пройдите аутентификацию, затем установите
модель по умолчанию как provider/model.
Ищете документацию по чат-каналам (WhatsApp/Telegram/Discord/Slack/Mattermost (плагин)/и т. д.)? См. Channels.
Выделение: Venice (Venice AI)¶
Venice — это рекомендуемая нами настройка Venice AI для приватно-ориентированного инференса с возможностью использовать Opus для сложных задач.
- По умолчанию:
venice/llama-3.3-70b - Лучший в целом:
venice/claude-opus-45(Opus остаётся самым сильным)
См. Venice AI.
Быстрый старт¶
- Пройдите аутентификацию у провайдера (обычно через
openclaw onboard). - Установите модель по умолчанию:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
Документация по провайдерам¶
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- Qwen (OAuth)
- OpenRouter
- Vercel AI Gateway
- Cloudflare AI Gateway
- Moonshot AI (Kimi + Kimi Coding)
- OpenCode Zen
- Amazon Bedrock
- Z.AI
- Xiaomi
- GLM models
- MiniMax
- Venice (Venice AI, ориентирован на приватность)
- Ollama (локальные модели)
- Qianfan
Провайдеры транскрибации¶
Инструменты сообщества¶
- Claude Max API Proxy — используйте подписку Claude Max/Pro как совместимую с OpenAI конечную точку API
Полный каталог провайдеров (xAI, Groq, Mistral и т. д.) и расширенную конфигурацию см. в разделе Model providers.