モデルプロバイダー¶
OpenClaw は多数の LLM プロバイダーを利用できます。1 つ選択して認証し、既定の
モデルを provider/model として設定します。 1つの認証を選択し、デフォルトの
モデルをprovider/modelに設定します。
ハイライト: Venice(Venice AI)¶
Venice は、プライバシー重視の推論を実現するために推奨している Venice AI のセットアップです。最も難しいタスクには Opus を使用するオプションがあります。
- 既定:
venice/llama-3.3-70b - 総合的に最良:
venice/claude-opus-45(Opus は依然として最強です)
Venice AI を参照してください。
クイックスタート(2 ステップ)¶
- プロバイダーで認証します(通常は
openclaw onboardを使用します)。 - 既定のモデルを設定します:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
サポートされているプロバイダー(スターターセット)¶
- OpenAI(API + Codex)
- Anthropic(API + Claude Code CLI)
- OpenRouter
- Vercel AI Gateway
- Cloudflare AI Gateway
- Moonshot AI(Kimi + Kimi Coding)
- Synthetic
- OpenCode Zen
- Z.AI
- GLM models
- MiniMax
- Venice(Venice AI)
- Amazon Bedrock
- Qianfan
完全なプロバイダカタログ(xAI、Groq、Mistralなど) そして、高度な構成、 Model providersを参照してください。