မော်ဒယ် ပံ့ပိုးသူများ¶
OpenClaw သည် LLM providers များစွာကို အသုံးပြုနိုင်ပါသည်။ Provider တစ်ခုကို ရွေးချယ်၍ authenticate လုပ်ပြီး default model ကို provider/model အဖြစ် သတ်မှတ်ပါ။
Chat channel docs (WhatsApp/Telegram/Discord/Slack/Mattermost (plugin)/etc.) ကို ရှာနေပါသလား? Channels ကို ကြည့်ပါ။
အထူးအလေးပေးချက်: Venice (Venice AI)¶
Venice သည် ကိုယ်ရေးကိုယ်တာကို ဦးစားပေးသော inference အတွက် ကျွန်ုပ်တို့ အကြံပြုထားသော Venice AI setup ဖြစ်ပြီး ခက်ခဲသော လုပ်ငန်းများအတွက် Opus ကို အသုံးပြုနိုင်သော ရွေးချယ်မှု ပါရှိသည်။
- မူလသတ်မှတ်ချက်:
venice/llama-3.3-70b - စုစုပေါင်းအကောင်းဆုံး:
venice/claude-opus-45(Opus သည် အင်အားအကောင်းဆုံးအဖြစ် ဆက်လက်တည်ရှိနေသည်)
Venice AI ကို ကြည့်ပါ။
အမြန်စတင်ရန်¶
- ပံ့ပိုးသူနှင့် အထောက်အထားပြုလုပ်ပါ (အများအားဖြင့်
openclaw onboardမှတဆင့်)။ - မူလ မော်ဒယ်ကို သတ်မှတ်ပါ —
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
ပံ့ပိုးသူ စာရွက်စာတမ်းများ¶
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- Qwen (OAuth)
- OpenRouter
- Vercel AI Gateway
- Cloudflare AI Gateway
- Moonshot AI (Kimi + Kimi Coding)
- OpenCode Zen
- Amazon Bedrock
- Z.AI
- Xiaomi
- GLM models
- MiniMax
- Venice (Venice AI, ကိုယ်ရေးကိုယ်တာကို ဦးစားပေး)
- Ollama (local models)
- Qianfan
အသံပြောင်းရေး ပံ့ပိုးသူများ¶
လူထုအခြေပြု ကိရိယာများ¶
- Claude Max API Proxy - Claude Max/Pro စာရင်းသွင်းမှုကို OpenAI နှင့် ကိုက်ညီသော API endpoint အဖြစ် အသုံးပြုနိုင်သည်
Provider catalog အပြည့်အစုံ (xAI, Groq, Mistral, etc.) အတွက် နှင့် advanced configuration များအတွက် Model providers ကို ကြည့်ပါ။