ผู้ให้บริการโมเดล¶
OpenClaw สามารถใช้ผู้ให้บริการ LLM ได้หลายราย OpenClawสามารถใช้ผู้ให้บริการLLMได้หลายราย เลือกผู้ให้บริการ ทำการยืนยันตัวตน จากนั้นตั้งค่า
โมเดลเริ่มต้นเป็น provider/model.
กำลังมองหาเอกสารช่องทางแชต(WhatsApp/Telegram/Discord/Slack/Mattermost(ปลั๊กอิน)/ฯลฯ)? ดูที่ Channels.
ไฮไลต์: Venice(Venice AI)¶
Veniceคือการตั้งค่า Venice AI ที่เราแนะนำสำหรับการประมวลผลที่คำนึงถึงความเป็นส่วนตัวเป็นหลัก พร้อมตัวเลือกในการใช้ Opus สำหรับงานที่ยาก
- ค่าเริ่มต้น:
venice/llama-3.3-70b - ดีที่สุดโดยรวม:
venice/claude-opus-45(Opusยังคงแข็งแกร่งที่สุด)
ดูที่ Venice AI.
เริ่มต้นอย่างรวดเร็ว¶
- ยืนยันตัวตนกับผู้ให้บริการ(โดยปกติผ่าน
openclaw onboard). - ตั้งค่าโมเดลเริ่มต้น:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
เอกสารผู้ให้บริการ¶
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- Qwen (OAuth)
- OpenRouter
- Vercel AI Gateway
- Cloudflare AI Gateway
- Moonshot AI (Kimi + Kimi Coding)
- OpenCode Zen
- Amazon Bedrock
- Z.AI
- Xiaomi
- GLM models
- MiniMax
- Venice (Venice AI, เน้นความเป็นส่วนตัว)
- Ollama (โมเดลภายในเครื่อง)
- Qianfan
ผู้ให้บริการถอดเสียง¶
เครื่องมือจากชุมชน¶
- Claude Max API Proxy - ใช้การสมัครสมาชิก Claude Max/Pro เป็นเอ็นด์พอยต์APIที่เข้ากันได้กับ OpenAI
สำหรับแคตตาล็อกผู้ให้บริการทั้งหมด(xAI, Groq, Mistral, ฯลฯ)และการกำหนดค่าขั้นสูง ดูที่ Model providers. และการกำหนดค่าขั้นสูง ดูที่ Model providers