モデルプロバイダー¶
OpenClaw は多くの LLM プロバイダーを使用できます。プロバイダーを選択して認証し、既定のモデルを provider/model として設定してください。 プロバイダを選択し、認証し、
デフォルトモデルをprovider/modelに設定します。
チャットチャンネルのドキュメント(WhatsApp/Telegram/Discord/Slack/Mattermost(プラグイン)/など)をお探しですか? Channels を参照してください。 Channels を参照してください。
ハイライト:Venice(Venice AI)¶
Venice は、プライバシー重視の推論向けに推奨している Venice AI のセットアップです。難易度の高いタスクでは Opus を使用する選択肢があります。
- 既定:
venice/llama-3.3-70b - 総合的に最良:
venice/claude-opus-45(Opus は依然として最も強力です)
詳細は Venice AI を参照してください。
クイックスタート¶
- プロバイダーで認証します(通常は
openclaw onboardを使用します)。 - 既定のモデルを設定します:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
プロバイダードキュメント¶
- OpenAI(API + Codex)
- Anthropic(API + Claude Code CLI)
- Qwen(OAuth)
- OpenRouter
- Vercel AI Gateway
- Cloudflare AI Gateway
- Moonshot AI(Kimi + Kimi Coding)
- OpenCode Zen
- Amazon Bedrock
- Z.AI
- Xiaomi
- GLM models
- MiniMax
- Venice(Venice AI、プライバシー重視)
- Ollama(ローカルモデル)
- Qianfan
文字起こしプロバイダー¶
コミュニティツール¶
- Claude Max API Proxy - Claude Max/Pro サブスクリプションを OpenAI 互換の API エンドポイントとして使用します
完全なプロバイダカタログ(xAI、Groq、Mistralなど) そして、高度な構成、 Model providersを参照してください。