ผู้ให้บริการโมเดล¶
OpenClaw สามารถใช้ผู้ให้บริการ LLM ได้หลายราย OpenClaw สามารถใช้งานผู้ให้บริการ LLM ได้หลายราย เลือกหนึ่งราย ทำการยืนยันตัวตน จากนั้นตั้งค่า
โมเดลเริ่มต้นเป็น provider/model.
ไฮไลต์: Venice (Venice AI)¶
Venice คือการตั้งค่า Venice AI ที่เราแนะนำ สำหรับการประมวลผลแบบคำนึงถึงความเป็นส่วนตัวเป็นหลัก พร้อมตัวเลือกในการใช้ Opus สำหรับงานที่ยากที่สุด
- ค่าเริ่มต้น:
venice/llama-3.3-70b - ดีที่สุดโดยรวม:
venice/claude-opus-45(Opus ยังคงแข็งแกร่งที่สุด)
ดูรายละเอียดได้ที่ Venice AI
เริ่มต้นอย่างรวดเร็ว (สองขั้นตอน)¶
- ยืนยันตัวตนกับผู้ให้บริการ (โดยปกติผ่าน
openclaw onboard). - ตั้งค่าโมเดลเริ่มต้น:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
ผู้ให้บริการที่รองรับ (ชุดเริ่มต้น)¶
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- OpenRouter
- Vercel AI Gateway
- Cloudflare AI Gateway
- Moonshot AI (Kimi + Kimi Coding)
- Synthetic
- OpenCode Zen
- Z.AI
- GLM models
- MiniMax
- Venice (Venice AI)
- Amazon Bedrock
- Qianfan
สำหรับแคตตาล็อกผู้ให้บริการทั้งหมด (xAI, Groq, Mistral ฯลฯ) และการกำหนดค่าขั้นสูง ดูที่ Model providers. และการกำหนดค่าขั้นสูง ดูที่ Model providers