FAQ¶
Kurze Antworten plus vertiefte Fehlerbehebung für reale Setups (lokale Entwicklung, VPS, Multi-Agent, OAuth/API-Schlüssel, Modell-Failover). Für Laufzeitdiagnosen siehe Troubleshooting. Für die vollständige Konfigurationsreferenz siehe Configuration.
Inhaltsverzeichnis¶
- [Schnellstart und Ersteinrichtung]
- Ich stecke fest – was ist der schnellste Weg, wieder weiterzukommen?
- Was ist der empfohlene Weg, OpenClaw zu installieren und einzurichten?
- Wie öffne ich das Dashboard nach dem Onboarding?
- Wie authentifiziere ich das Dashboard (Token) auf localhost vs. remote?
- Welche Runtime benötige ich?
- Läuft es auf einem Raspberry Pi?
- Gibt es Tipps für Raspberry-Pi-Installationen?
- Es hängt bei „wake up my friend“ / das Onboarding schlüpft nicht. Was nun?
- Kann ich mein Setup auf eine neue Maschine (Mac mini) migrieren, ohne das Onboarding erneut zu machen?
- Wo sehe ich, was in der neuesten Version neu ist?
- Ich kann docs.openclaw.ai nicht erreichen (SSL-Fehler). Was nun?
- Was ist der Unterschied zwischen stable und beta?
- Wie installiere ich die Beta-Version, und was ist der Unterschied zwischen beta und dev?
- Wie probiere ich die neuesten Bits aus?
- Wie lange dauern Installation und Onboarding normalerweise?
- Installer hängt? Wie bekomme ich mehr Feedback?
- Windows-Installation sagt „git nicht gefunden“ oder „openclaw nicht erkannt“
- Die Doku hat meine Frage nicht beantwortet – wie bekomme ich eine bessere Antwort?
- Wie installiere ich OpenClaw unter Linux?
- Wie installiere ich OpenClaw auf einem VPS?
- Wo sind die Cloud-/VPS-Installationsanleitungen?
- Kann ich OpenClaw bitten, sich selbst zu aktualisieren?
- Was macht der Onboarding-Assistent eigentlich?
- Benötige ich ein Claude- oder OpenAI-Abonnement, um das zu betreiben?
- Kann ich ein Claude-Max-Abonnement ohne API-Schlüssel nutzen?
- Wie funktioniert die Anthropic-„setup-token“-Authentifizierung?
- Wo finde ich ein Anthropic setup-token?
- Unterstützen Sie Claude-Abonnement-Authentifizierung (Claude Pro oder Max)?
- Warum sehe ich
HTTP 429: rate_limit_errorvon Anthropic? - Wird AWS Bedrock unterstützt?
- Wie funktioniert die Codex-Authentifizierung?
- Unterstützen Sie OpenAI-Abonnement-Authentifizierung (Codex OAuth)?
- Wie richte ich Gemini CLI OAuth ein?
- Ist ein lokales Modell für lockere Chats in Ordnung?
- Wie halte ich den Traffic zu gehosteten Modellen in einer bestimmten Region?
- Muss ich einen Mac mini kaufen, um das zu installieren?
- Benötige ich einen Mac mini für iMessage-Unterstützung?
- Wenn ich einen Mac mini kaufe, um OpenClaw auszuführen, kann ich ihn mit meinem MacBook Pro verbinden?
- Kann ich Bun verwenden?
- Telegram: Was gehört in
allowFrom? - Können mehrere Personen eine WhatsApp-Nummer mit verschiedenen OpenClaw-Instanzen nutzen?
- Kann ich einen „Fast-Chat“-Agenten und einen „Opus fürs Coden“-Agenten betreiben?
- Funktioniert Homebrew unter Linux?
- Was ist der Unterschied zwischen der hackbaren (git) Installation und der npm-Installation?
- Kann ich später zwischen npm- und git-Installationen wechseln?
- Sollte ich den Gateway auf meinem Laptop oder auf einem VPS betreiben?
- Wie wichtig ist es, OpenClaw auf einer dedizierten Maschine zu betreiben?
- Was sind die minimalen VPS-Anforderungen und das empfohlene Betriebssystem?
- Kann ich OpenClaw in einer VM betreiben, und welche Anforderungen gibt es?
- Was ist OpenClaw?
- Was ist OpenClaw, in einem Absatz?
- Was ist der Wert Proposition?
- Ich stelle gerade fest, was ich zuerst tun sollte
- Was sind die fünf besten täglichen Anwendungsfälle für OpenClaw
- Kann OpenClaw mit Lead gen Outtreach Anzeigen und Blogs für eine SaaS helfen
- Was sind die Vorteile gegenüber Claude Code für Web-Entwicklung?
- Fertigkeiten und Automatisierung
- Wie kann ich Fähigkeiten anpassen, ohne das Repo schmutzig zu halten?
- Kann ich Fähigkeiten aus einem benutzerdefinierten Ordner laden?
- Wie kann ich verschiedene Modelle für verschiedene Aufgaben verwenden?
- Der Bot friert ein, während er schwere Arbeit macht. Wie lade ich das?
- Cron oder Erinnerungen feuern nicht. Was soll ich prüfen?
- Wie installiere ich Fertigkeiten unter Linux?
- Kann OpenClaw Aufgaben nach einem Zeitplan ausführen oder im Hintergrund fortlaufen?
- Kann ich Apple MacOS-only Fähigkeiten von Linux verwenden?
- Hast du eine Idee oder eine HeyGen-Integration?
- Wie installiere ich die Chrome-Erweiterung für Browserübernahme?
- Sandboxen und Speicher
- Gibt es eine dedizierte Sandbox-Dokument?
- Wie binde ich einen Hostordner in die Sandbox ein?
- Wie funktioniert Speicher?
- Speicher vergisst die Dinge. Wie setze ich es an?
- Ist Speicher für immer vorhanden? Was sind die Grenzen?
- Benötigt die semantische Speichersuche einen OpenAI-API-Schlüssel?
- Wo die Dinge auf der Festplatte leben
- Werden alle Daten mit OpenClaw lokal gespeichert?
- Wo speichert OpenClaw seine Daten?
- Wo soll AGENTS.md / SOUL.md / USER.md / MEMORY.md live?
- Was ist die empfohlene Backup-Strategie?
- Wie deinstalliere ich OpenClaw?
- Können Agenten außerhalb des Arbeitsbereichs arbeiten?
- Ich bin im Remote-Modus - wo ist der Session-Store?
- Grundlagen konfigurieren
- Welches Format ist die Konfiguration? Wo ist sie?
- Ich setze
gateway.bind: "lan"(oder"tailnet") und jetzt hört nichts auf / das UI sagt unautorisiert - Warum brauche ich ein Token auf localhost jetzt?
- Muss ich nach dem Ändern der Konfiguration neu starten?
- Wie aktiviere ich die Web-Suche (und den Web-Abruf)?
- config.apply hat meine Konfiguration gelöscht. Wie kann ich das wiederherstellen und vermeiden?
- Wie führe ich ein zentrales Gateway mit spezialisierten Arbeitern über Geräte hinweg aus?
- Kann der OpenClaw-Browser kopflos laufen?
- Wie verwende ich Brave für die Browser-Steuerung?
- Entfernte Gateways und Knoten
- Wie propagieren Befehle zwischen Telegram, Gateway und Knoten?
- Wie kann mein Agent auf meinen Computer zugreifen, wenn das Gateway aus der Ferne gehostet ist?
- Maßstabstabstabelle ist verbunden, aber ich bekomme keine Antworten. Was nun?
- Können zwei OpenClaw-Instanzen miteinander sprechen (lokal + VPS)?
- Brauche ich separate VPSes für mehrere Agenten
- Gibt es einen Vorteil, einen Knoten auf meinem persönlichen Laptop anstelle von SSH von einem VPS zu benutzen?
- Führen Knoten einen Gateway-Dienst aus?
- Gibt es eine API / RPC-Möglichkeit, die Konfiguration anzuwenden?
- Was ist eine minimale "sane" Konfiguration für eine erste Installation?
- Wie erstelle ich eine Maßstabskala auf einem VPS und verbinde mich mit meinem Mac?
- Wie verbinde ich einen Mac-Knoten mit einem entfernten Gateway (Tailscale Serve)?
- Soll ich auf einem zweiten Laptop installieren oder einfach einen Knoten hinzufügen?
- Umgebungsvariablen und Laden von .env
- Wie lädt OpenClaw Umgebungsvariablen?
- Ich habe das Gateway über den Dienst gestartet und meine env vars verschwunden." Was nun?
- Ich setze
COPILOT_GITHUB_TOKEN, aber Modelle Status zeigt "Shell env: aus." Warum? - Sitzungen und mehrere Chats
- Wie starte ich eine neue Konversation?
- Sessions werden automatisch zurückgesetzt, wenn ich
/new? - Gibt es eine Möglichkeit, ein Team von OpenClaw Instanzen zu einem CEO und vielen Agenten zu machen
- Warum wurde Kontext Mitte der Aufgabe abgeschnitten? Wie kann ich es verhindern?
- Wie setze ich OpenClaw komplett zurück, aber behalte es installiert?
- Ich bekomme "Kontext zu groß" Fehler - wie kann ich zurücksetzen oder kompakt?
- Warum sehe ich "LLM-Anfrage abgelehnt: messages.N.content.X.tool_use.input: Feld erforderlich"?
- Warum erhalte ich alle 30 Minuten herzhafte Nachrichten?
- Muss ich ein "Bot-Konto" zu einer WhatsApp-Gruppe hinzufügen?
- Wie erhalte ich die JID einer WhatsApp-Gruppe?
- Warum antwortet OpenClaw nicht in einer Gruppe?
- Teilen Gruppen/Themen den Kontext mit DMs?
- Wie viele Arbeitsbereiche und Agenten kann ich erstellen?
- Kann ich mehrere Bots oder Chats gleichzeitig ausführen (Slack), und wie soll ich das einrichten?
- Modelle: Standardeinstellungen, Auswahl, Aliases, Umschalten
- Was ist das "Standardmodell"?
- Welches Modell empfehlen Sie?
- Wie wechsele ich Modelle ohne meine Konfiguration zu löschen?
- Kann ich selbst gehostete Modelle verwenden (llama.cpp, vLLM, Ollama)?
- Was verwendet OpenClaw, Fehler und Krill für Modelle?
- Wie schalte ich Modelle auf die Fliege ein (ohne Neustart)?
- Kann ich GPT 5.2 für tägliche Aufgaben und Codex 5.3 für die Codierung verwenden
- Warum sehe ich "Modell … ist nicht erlaubt" und dann keine Antwort?
- Warum sehe ich "Unbekanntes Modell: minimax/MiniMax-M2.1"?
- Kann ich MiniMax als Standard und OpenAI für komplexe Aufgaben verwenden?
- Sind opus / sonnet / gpt integrierte Tastenkombinationen?
- Wie kann ich Model-Verknüpfungen definieren/überschreiben (Alias)?
- Wie füge ich Modelle von anderen Anbietern wie OpenRouter oder Z.AI hinzu?
- Model Failover und "Alle Modelle fehlgeschlagen"
- Wie funktioniert das Failover-System?
- Was bedeutet dieser Fehler?
- Checkliste für
Keine Anmeldeinformationen für Profil gefunden für "anthropic:default" - Warum hat es auch Google Gemini versucht und scheitert?
- Auth Profile: was sie sind und wie sie sie verwalten
- Was ist ein auth Profil?
- Was sind typische Profil-IDs?
- Kann ich kontrollieren, welches auth Profil zuerst ausprobiert wurde?
- OAuth vs API-Schlüssel: Was ist der Unterschied?
- Gateway: Ports, "bereits läuft", und Remote-Modus
- Welchen Port benutzt das Gateway?
- Warum sagt
openclaw gateway statusRuntime: läuftaber `RPC Sonde: fehlgeschlagen? - Warum zeigt
openclaw gateway statusConfig (cli)undConfig (service)unterschiedlich? - Was bedeutet "eine andere Gateway-Instanz bereits hört" ?
- Wie führe ich OpenClaw im Remote-Modus aus (Client verbindet sich mit einem Gateway anderswo)?
- Das Control UI sagt "nicht autorisiert" (oder erneute Verbindung). Was nun?
- Ich setze
gateway.bind: "tailnet"aber es kann nicht binden / nichts listens - Kann ich mehrere Gateways auf dem gleichen Host ausführen?
- Was bedeutet "ungültiger Handshake" / Code 1008?
- Protokollieren und Debuggen
- Wo sind Logs?
- Wie starte ich den Gateway-Dienst?
- Ich habe mein Terminal unter Windows geschlossen - wie starte ich OpenClaw?
- Das Gateway ist offen, aber Antworten kommen nie an. Was soll ich prüfen?
- "Keine Verbindung zum Gateway: kein Grund" - was jetzt?
- Telegram setMyCommands schlägt bei Netzwerkfehlern fehl. Was soll ich prüfen?
- TUI zeigt keine Ausgabe. Was soll ich prüfen?
- Wie höre ich vollständig auf und starte dann das Tor?
- ELI5:
openclaw gateway restartvs.openclaw gateway - Was ist der schnellste Weg, um mehr Details zu erhalten, wenn etwas fehlschlägt?
- Medien und Anhänge
- Meine Fähigkeit generierte ein Bild/PDF, aber nichts wurde gesendet
- Sicherheit und Zugriffskontrolle
- Ist es sicher OpenClaw eingehenden DMs auszusetzen?
- Ist eine Injektion nur eine Sorge für öffentliche Bots?
- Sollte mein Bot eine eigene Github Account oder Telefonnummer haben
- Kann ich ihr Autonomie über meine Textnachrichten geben und ist so sicher
- Kann ich billigere Modelle für persönliche Assistentenaufgaben verwenden?
- Ich habe
/startim Telegram ausgeführt, aber keinen Paarcode - WhatsApp: Wird es meine Kontakte benachrichtigen? Wie funktioniert das Paaren?
- Chat Befehle, Abbruch von Aufgaben und "es wird nicht stoppen"
- Wie kann ich die Anzeige interner Systemnachrichten im Chat verhindern
- Wie kann ich eine laufende Aufgabe stoppen/abbrechen?
- Wie sende ich eine Discord Nachricht von Telegram? ("Cross-context Nachricht verweigert")
- Warum fühlt es sich wie der Bot "ignoriert?
Erste 60 Sekunden, wenn etwas kaputt ist¶
- Schnellstatus (erste Prüfung)
bash
openclaw status
Schnelle lokale Zusammenfassung: OS + Update, Gateway/Service Erreichbarkeit, Agenten/Sitzungen, Provider-Konfiguration + Laufzeitprobleme (wenn Gateway erreichbar ist).
- Einfügbarer Bericht (sicher zum Teilen)
bash
openclaw Status --all
Nur-Lese-Diagnose mit Log-tail (Token redacted).
- Daemon + Port-Status
bash
openclaw gateway status
Zeigt die Supervisor Laufzeit vs RPC Erreichbarkeit, die Sonde Ziel-URL, und welche Konfiguration der Dienst verwendet werden soll.
- Tiefsonden
bash
openclaw Status --deep
Runs Gateway Gesundheitschecks + Providersonden (benötigt ein erreichbares Gateway). Siehe Health.
- Nutze das neueste Protokoll
bash
openclaw logs --follow
Wenn RPC nicht erreichbar ist, fallen Sie zurück auf:
bash
tail -f "$(ls -t /tmp/openclaw/openclaw-*.log | head -1)"
Datei-Protokolle sind getrennt von Service-Logs; siehe Logging und Troubleshooting.
- Führe den Arzt (Reparaturen)
bash
openclaw doctor
Reparatur/migrate config/state + führt Gesundheitschecks aus. Siehe Doctor.
- Gateway-Snapshot
bash
openclaw health --json
openclaw health --verbose # zeigt die Ziel-URL + den Konfigurationspfad bei Fehlern an
Fragt das laufende Gateway nach einem vollständigen Schnappschuss (nur WS). Siehe Health.
Schnellstart und Ersteinrichtung¶
Im Steck, was ist der schnellste Weg, um loszulegen¶
Benutze einen lokalen KI-Agenten, der deinen Computer sehen kann kann. Das ist viel effektiver, als in Discord, zu fragen weil die meisten "Ich bin fest" Fälle lokale Konfigurations- oder Umgebungsprobleme sind, die entfernte Helfer nicht überprüfen können.
- Claude Code: https://www.anthropic.com/claude-code/
- OpenAI Codex: https://openai.com/codex/
Diese Werkzeuge können das Repo lesen, Befehle ausführen, Protokolle inspizieren und dabei helfen, das Setup Ihrer Maschine zu korrigieren (PATH, Dienste, Berechtigungen, Authentifizierungsdateien). Gib ihnen die vollständige Quelle-Checkout via die hackbare (git) Installation:
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
Dies installiert OpenClaw von einem Git Checkout, so dass der Agent den Code + Dokumentation und
Grund für die genaue Version lesen kann, die Sie gerade verwenden. Sie können später immer wieder zu stable
wechseln, indem Sie den Installer ohne --install-method git erneut ausführen.
Tipp: Bittet den Agenten, die Fixierung zu planen und zu überwachen und dann nur die notwendigen Befehle auszuführen. Das hält Änderungen klein und leichter zu überprüfen.
Wenn du einen echten Fehler oder Fehler entdeckst, schreibe bitte ein GitHub Problem oder sende eine PR: https://github.com/openclaw/openclaw/issues https://github.com/openclaw/openclaw/pulls
Beginnen Sie mit diesen Befehlen (Ausgabe teilen, wenn Sie um Hilfe bitten):
openclaw status
openclaw models status
openclaw doctor
Was sie tun:
openclaw status: Schnelles Snapshot von Gateway/agent health + basic config.- 'openclaw models status': prüft den Provider auth + die Verfügbarkeit des Modells.
openclaw doctor: Validiert und repariert übliche config/state Probleme.
Andere nützliche CLI-Prüfungen: openclaw status --all, openclaw logs --follow,
openclaw gateway status, openclaw health --verbose.
Schnell-Debug-Schleife: Erste 60 Sekunden, wenn etwas kaputt ist. Installiere docs: Install, Installer flags, Updating.
Was ist die empfohlene Methode, OpenClaw zu installieren und einzurichten¶
Das Repo empfiehlt, aus der Quelle zu laufen und den Onboarding-Assistenten zu verwenden:
curl -fsSL https://openclaw.ai/install.sh | bash
openclaw onboard --install-daemon
Der Assistent kann auch automatisch UI-Assets erstellen. Nach dem Einsteigen laufen Sie typischerweise das Gateway auf Port 18789.
Aus Quelle (Mitwirkende/Entwickl):
git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install
pnpm build
pnpm ui:build # auto-installalls UI deps on first run
openclaw on board
Wenn Sie noch keine globale Installation haben, führen Sie sie über pnpm openclaw onboard aus.
Wie kann ich das Dashboard nach dem Einsteigen öffnen¶
Der Assistent öffnet Ihren Browser mit einer sauberen (nicht-tokenisierten) Dashboard-URL direkt nach dem Einbinden und gibt auch den Link in der Zusammenfassung aus. Diesen Tab öffnen; wenn er nicht startet, kopieren/einfügen Sie die gedruckte URL auf dem gleichen Rechner.
Wie authentifiziere ich das Dashboard-Token auf localhost vs remote¶
Lokalhost (selbe Maschine):
- Öffne
http://127.0.0.1:18789/. - Wenn es nach auth fragt, fügen Sie das Token aus
gateway.auth.token(oderOPENCLAW_GATEWAY_TOKEN) in die Kontroll-UI-Einstellungen ein. - Rufe es vom Gateway-Host ab:
openclaw config get gateway.auth.token(oder generiere eins:openclaw doctor --generate-gateway-token).
Nicht auf localhost:
- Maßstabsserve (empfohlen): bind loopback halten,
openclaw gateway --tailscale serveausführen,https://<magicdns>/. Wenngateway.auth.allowTailscaletrueist, erfüllen Identitätsheader auth (kein Token). - Tailnet bind: Führen Sie
openclaw gateway --bind tailnet --token "<token>", öffnen Siehttp://<tailscale-ip>:18789/, fügen Sie Token in die Dashboard-Einstellungen ein. - SSH Tunnel:
ssh -N -L 18789:127.0.0.1:18789 user@hostdann öffnen Siehttp://127.0.0.1:18789/und fügen Sie das Token in die Kontroll-UI-Einstellungen ein.
Siehe Dashboard und Web-Oberflächen für binde Modi und auth Details.
Welche Laufzeit benötige ich¶
Knoten >= 22 ist erforderlich. pnpm wird empfohlen. Bun wird nicht empfohlen für das Gateway.
Lauft es auf Raspberry Pi¶
Ja. Das Gateway ist leichtgewichtig - docs list 512MB-1GB RAM, 1 core, und etwa 500MB Scheibe als ausreichend für den persönlichen Gebrauch und beachten Sie, dass ein Raspberry Pi 4 sie ausführen kann.
Wenn du einen zusätzlichen Headroom (Logs, Medien, andere Dienste) möchtest, wird 2GB empfohlen, aber es ist ein kein hartes Minimum.
Tipp: Eine kleine Pi/VPS kann das Gateway beherbergen und du kannst Knoten auf deinem Laptop/Telefon für lokale Bildschirme/Kamera/Leinwand oder Befehlsausführung paaren. Siehe Nodes.
Alle Tipps für Raspberry Pi Installationen¶
Kurze Version: es funktioniert, aber erwarten Sie raue Kanten.
- Benutze ein 64-Bit- Betriebssystem und behalte Knoten >= 22.
- Bevorzugen Sie die hackable (git)-Installation damit Sie Logs sehen und schnell aktualisieren können.
- Beginnen Sie ohne Kanäle/Fähigkeiten und fügen Sie sie einzeln hinzu.
- Wenn Sie auf seltsame Binärprobleme stoßen, ist dies normalerweise ein ARM-Kompatibilität Problem.
Dokumentation: Linux, Installation.
Es steckt beim Wecken fest, mein Freund wird nicht ausbrüten, was jetzt¶
Dieser Bildschirm hängt davon ab, ob das Gateway erreichbar und authentifiziert ist. Die TUI sendet auch "Wach auf, mein Freund!" automatisch auf der ersten Luke. Wenn du diese Zeile mit keine Antwort siehst und die Tokens bei 0 bleiben, wird der Agent nie rangiert.
- Gateway neu starten:
openclaw gateway restart
- Überprüfe Status + Auth:
openclaw Status
openclaw modelliert den Status
openclaw log --follow
- Wenn es immer noch hängt, laufen:
openclaw doctor
Wenn das Gateway aus der Ferne ist, stellen Sie sicher, dass die Verbindung zwischen Tunnel/Schneiderei und dem Interface auf das rechte Tor gezeigt wird. Siehe Remote access.
Kann ich mein Setup auf eine neue Maschine Mac mini migrieren, ohne erneut zu arbeiten¶
Ja. Kopieren Sie das Zustandsverzeichnis und Workspace, dann starten Sie Doctor einmal. Diese hält deinen Bot "genau dasselbe" (Speicher, Sitzungsverlauf, Auth und Kanal Zustand) solange du beide Standorte kopierst:
- Installieren Sie OpenClaw auf der neuen Maschine.
- Kopiere
$OPENCLAW_STATE_DIR(Standard:~/.openclaw) von der alten Maschine. - Kopieren Sie Ihren Arbeitsbereich (Standard:
~/.openclaw/workspace). - Führe
openclaw doctoraus und starte den Gateway-Dienst neu.
Damit werden die Konfiguration, die Authentifizierungsprofile, WhatsApp Creds, Sessions und Speicher beibehalten. Wenn Sie im Remote-Modus sind, merken Sie sich, dass der Gateway-Host den Session-Shop und den Arbeitsbereich besitzt.
Wichtig: Wenn du deinen Arbeitsbereich nur auf GitHub überträgst, unterstützst du
memory + bootstrap Dateien, aber nicht Sitzungsverlauf oder auth. Diese live
unter ~/.openclaw/ (z.B. ~/.openclaw/agents/<agentId>/sessions/).
Verwandt: Migrating, Wo die Dinge auf der Festplatte leben, Agent-Arbeitsbereich, Doctor, Remote-Modus.
Wo sehe ich, was neu in der neuesten Version ist¶
Prüfe die GitHub Changelog: https://github.com/openclaw/openclaw/blob/main/CHANGELOG.md
Neueste Einträge sind ganz oben. Wenn der obere Bereich Unreleased markiert ist, ist der nächste datierte Abschnitt die neueste verschickte Version. Einträge sind nach Highlights, Changes und Fixes gruppiert (plus docs/other sections wenn nötig).
Ich kann auf docs.openclaw.ai SSL-Fehler nicht zugreifen. Was jetzt¶
Einige Comcast/Xfinity-Verbindungen blockieren docs.openclaw.ai über Xfinity
Erweiterte Sicherheit. Deaktivieren oder erlaubte Liste docs.openclaw.ai, dann erneut versuchen. Mehr
Detail: Troubleshooting.
Bitte hilf uns die Blockierung zu entsperren, indem du sie hier meldest: https://spa.xfinity.com/check_url_status.
Wenn du die Seite noch nicht erreichen kannst, werden die Dokumentation auf GitHub: https://github.com/openclaw/openclaw/tree/main/docs gespiegelt
Was ist der Unterschied zwischen Stable und Beta¶
Stable und beta sind npm dist-tags, keine separaten Codezeilen:
latest= stabilbeta= frühzeitiges Build zum Testen
Wir versenden Builds an Beta, testen sie und sobald ein Build solide ist, fördern wir die gleiche Version **
zu latest**. Das ist der Grund, warum Beta und stable auf die
gleiche Version zeigen können.
Schau, was sich geändert hat: https://github.com/openclaw/openclaw/blob/main/CHANGELOG.md
Wie installiere ich die Beta-Version und was ist der Unterschied zwischen Beta und dev¶
Beta ist der npm dist-tag beta (entspricht möglicherweise aktuellst).
Dev ist der bewegte Kopf von main (git); wenn er veröffentlicht wird, verwendet er den npm dist-tag dev.
Einzeiler (macOS/Linux):
curl -fsSL --proto '=https' --tlsv1.2 https://openclaw.ai/install.sh | bash -s -- --beta
curl -fsSL --proto '=https' --tlsv1.2 https://openclaw.ai/install.sh | bash -s -- --install-method git
Windows Installer (PowerShell): https://openclaw.ai/install.ps1
Mehr Detail: Entwicklungskanäle und Installer flags.
Wie lange dauert die Installation und das Onboarding in der Regel¶
Grobe Leitfaden:
- Installieren: 2-5 Minuten
- Onboarding: 5-15 Minuten, je nachdem, wie viele Kanäle/Modelle du konfigurierst
Wenn es hängt, verwenden Sie Installer steck und die schnelle Debug-Schleife in Im stuck.
Wie versuche ich die neuesten Bits¶
Zwei Optionen:
- Dev-Kanal (Git Checkout):
openclaw Update --channel dev
Dies wechselt zum 'main' Zweig und Updates aus der Quelle.
- Hackable Installation (von der Installer-Seite):
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
Das gibt Ihnen ein lokales Repo können Sie bearbeiten, dann aktualisieren via git.
Wenn Sie einen sauberen Klon manuell bevorzugen, benutzen:
git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm installieren
pnpm build
Docs: Update, Entwicklungskanäle, Install.
Installer steckt fest Wie bekomme ich mehr Feedback¶
Starte den Installer mit verbose output:
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --verbose
Beta-Installation mit ausführlichen Folgen:
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --beta --verbose
Für eine hackable (git) Installation:
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git --verbose
Weitere Optionen: Installer flags.
Windows Installation besagt, dass git nicht gefunden wurde oder openclaw nicht erkannt wurde¶
Zwei häufige Windows-Probleme:
1) npm Fehler beim Spawn git / git nicht gefunden
- Installiere Git for Windows und stelle sicher, dass
gitauf deinem PATH ist. - Schließen und öffnen Sie PowerShell und führen Sie den Installer erneut.
2) openclaw wird nach der Installation nicht erkannt
-
Ihr npm global bin Ordner ist nicht auf PATH.
-
Pfad überprüfen:
powershell
npm config get prefix
-
Stelle sicher, dass
<prefix>\\binauf PATH ist (auf den meisten Systemen ist es%AppData%\\npm). -
Schließen und öffnen Sie PowerShell nach dem Update von PATH.
Wenn Sie das reibungslose Setup von Windows wünschen, verwenden Sie WSL2 anstelle von nativen Windows. Docs: Windows.
Die Dokumentation hat meine Frage nicht beantwortet, wie ich eine bessere Antwort bekomme¶
Benutze die **hackable (git) Installation ** damit du die vollständige Quelle und die Dokumentation lokal hast dann fragen Sie Ihren Bot (oder Claude/Codex) aus diesem Ordner damit er das Repo lesen und genau beantworten kann.
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
Mehr Detail: Install und Installer flags.
Wie installiere ich OpenClaw auf Linux¶
Kurze Antwort: Folgen Sie dem Linux-Leitfaden und führen Sie den Onboarding-Assistenten aus.
- Linux Schnellpfad + Service-Installation: Linux.
- Voller Durchgang: Erste Schritt.
- Installer + Updates: Installieren & Updates.
Wie installiere ich OpenClaw auf einem VPS¶
Jeder Linux VPS funktioniert. Installieren Sie auf dem Server, dann verwenden Sie SSH/Maßstab, um das Gateway zu erreichen.
Anleitungen: exe.dev, Hetzner, Fly.io. Remote-Zugriff: Gateway entfernt.
Wo sind die CloudVPS Installationsanleitungen¶
Wir behalten einen Hosting-Hub mit den gängigen Anbietern. Wähle eine aus und folge der Anleitung:
- VPS Hosting (alle Anbieter an einem Ort)
- Fly.io
- Hetzner
- exe.dev
Wie es in der Cloud funktioniert: Das Gateway läuft auf dem Server, und Sie greifen auf von Ihrem Laptop/Telefon aus über die Steuerungsschnittstelle (oder Schneidermaßstab/SSH) zu. Ihr Status + Arbeitsbereich live auf dem Server, also behandeln Sie den Host als Quelle der Wahrheit und sichern Sie ihn ab.
Du kannst Knoten (Mac/iOS/Android/kopflos) mit diesem Cloud-Gateway paaren, um auf lokale Bildschirme/Kamera/Leinwand zuzugreifen oder Befehle auf deinem Laptop auszuführen, während du das Gateway in der Cloud hältst.
Hub: Platforms. Remote-Zugriff: Gateway entfernt. Nodes: Nodes, Nodes CLI.
Darf ich OpenClaw bitten, sich selbst zu aktualisieren¶
Kurze Antwort: möglich, nicht empfohlen. Der Update-Fluss kann das Gateway neu starten (das die aktive Sitzung abläuft), benötigt eine saubere Git Checkout und kann zur Bestätigung aufgefordert werden. Safer: führen Sie Updates von einer Shell als Operator aus.
CLI verwenden:
openclaw update
openclaw update status
openclaw update --channel stable|beta|dev
openclaw update --tag <dist-tag|version>
openclaw update --no-restart
Wenn Sie von einem Agenten automatisieren müssen:
openclaw update --yes --no-restart
openclaw gateway neustarten
Was macht der Onboarding-Assistent tatsächlich¶
openclaw onboard ist der empfohlene Setup-Pfad. Im lokalen Modus geht es durch:
- Model/auth setup (Anthropisches setup-token empfohlen für Claude Abonnements, OpenAI Codex OAuth unterstützt, API-Schlüssel optional, LM Studio lokale Modelle unterstützt)
- Workspace Standort + Bootstrap Dateien
- Gateway-Einstellungen (bind/port/auth/tailscale)
- Provider (WhatsApp, Telegram, Discord, Mattermost (Plugin), Signal, iMessage)
- Daemon install (LaunchAgent unter macOS; systemd user unit unter Linux/WSL2)
- Gesundheitsprüfung und Skills Auswahl
Es wird auch gewarnt, ob Ihr konfiguriertes Modell unbekannt ist oder ob auth fehlt.
Benötige ich ein Claude oder OpenAI Abonnement, um dies ausführen zu können¶
Nein. Du kannst OpenClaw mit API-Schlüssel (Anthropic/OpenAI/others) oder mit lokal-only Modelle ausführen, sodass deine Daten auf deinem Gerät bleiben. Abonnements (Claude Pro/Max oder OpenAI Codex) sind optionale Methoden, um diese Anbieter zu authentifizieren.
Docs: Anthropic, OpenAI, Lokale Modelle, Models.
Kann ich Claude Max-Abonnement ohne API-Schlüssel verwenden¶
Ja. Du kannst dich mit einem setup-token anstelle eines API-Schlüssels authentifizieren. Dies ist der Abonnementpfad.
Claude Pro/Max-Abonnements enthalten keinen API-Schlüssel, daher ist dies der korrekte Ansatz für Abonnementkonten. Wichtig: Sie müssen mit Anthropic überprüfen, dass diese Nutzung nach ihren Abonnementrichtlinien und Bedingungen erlaubt ist. Wenn Sie den explizitsten, unterstützten Pfad wollen, verwenden Sie einen Anthropischen API-Schlüssel.
Wie funktioniert Anthropisches setuptoken auth¶
claude setup-token generiert einen token string über das Claude Code CLI (es ist nicht in der Web-Konsole verfügbar). Du kannst es auf jeder Maschine ausführen. Wähle Anthropisches Token (füge setup-token ein) im Assistenten ein oder füge es mit openclaw models auth paste-token --provider anthropic ein. Der Token wird als Auth-Profil für den anthropic Provider gespeichert und wird als API-Schlüssel verwendet (kein Auto-Aktualisieren). Mehr Detail: OAuth.
Wo finde ich ein anthropisches Setuptoken¶
Es ist nicht in der Anthropischen Konsole. Das Setup-Token wird von dem Claude Code CLI auf jeder Maschine:
claude setup-token
Kopieren Sie den ausgedruckten Token und wählen Sie dann Anthropisches Token (Einfügen von setup-token) im Assistenten. Wenn Sie es auf dem Gateway-Host ausführen möchten, verwenden Sie openclaw models auth setup-token --provider anthropic. Wenn du claude setup-token woanders ausführst, füge es auf den Gateway-Host mit openclaw models auth paste-token --provider anthropic ein. Siehe Anthropic.
Unterstützen Sie Claude Abonnement auth (Claude Pro oder Max)¶
Ja - über setup-token. OpenClaw verwendet Claude Code CLI OAuth Token nicht mehr wieder; verwenden Sie einen Setup-Token oder einen Anthropischen API-Schlüssel. Generieren Sie das Token überall und fügen Sie es auf den Gateway-Host ein. Siehe Anthropic und OAuth.
Hinweis: Der Zugang zu Claude Abonnements unterliegt den Bedingungen von Anthropic. Die API-Schlüssel sind für die Produktion oder die Mehrbenutzerbelastung meist die sicherere Wahl.
Warum sehe ich HTTP 429 ratelimiterror von Anthropic¶
Das bedeutet, dass dein Anthropisches Quote/Rate Limit für das aktuelle Fenster ausgeschöpft ist. Wenn Sie ein Claude-Abonnement verwenden (setup-token oder Claude Code OAuth), warten Sie auf das Fenster Zurücksetzen oder aktualisieren Sie Ihr Paket. Wenn du einen Anthropischen API-Schlüssel verwendest, überprüfe die Anthropische Konsole für die Nutzung/Abrechnung und setze bei Bedarf Grenzen.
Tipp: Legen Sie ein Fallback-Modell fest, so dass OpenClaw weiter antworten kann, während ein Anbieter eine Kursbegrenzung hat. Siehe Models und OAuth.
Wird AWS Bedrock unterstützt¶
Ja - via pi-ai's Amazon Bedrock (Converse) Provider mit Manual-config. Sie müssen AWS Anmeldeinformationen/Region auf dem Gateway-Host angeben und einen Bedrock Provider Eintrag in Ihrer Model-Konfiguration hinzufügen. Siehe Amazon Bedrock und Model Providers. Wenn Sie einen verwalteten Schlüsselfluss bevorzugen, ist ein OpenAI-kompatibler Proxy vor Bedrock immer noch eine gültige Option.
Wie funktioniert Codex auth¶
OpenClaw unterstützt OpenAI Code (Codex) über OAuth (ChatGPT anmelden). Der Assistent kann den OAuth-Fluss ausführen und setzt das Standardmodell auf openai-codex/gpt-5.3-codex, falls angemessen. Siehe Modellanbieter und Wizard.
Unterstützen Sie OpenAI Abonnement auth Codex OAuth¶
Ja. OpenClaw unterstützt das OpenAI Code (Codex) Abonnement von OAuth. Der Onboarding-Assistent kann den OAuth-Fluss für Sie ausführen.
Siehe OAuth, Modellanbieter, und Wizard.
Wie kann ich Gemini CLI OAuth einrichten¶
Gemini CLI verwendet einen Plugin auth flow, keine Client-ID oder Geheimnis in openclaw.json.
Schritte:
- Plugin aktivieren:
openclaw Plugins aktivieren Google gemini-cli-auth - Login:
openclaw models auth login --provider google-gemini-cli --set-default
Dies speichert OAuth Token in Authentifizierungsprofilen auf dem Gateway-Host. Details: Model Providers.
Ist ein lokales Modell OK für Gelegenheitschats¶
Normalerweise nein. OpenClaw braucht einen großen Kontext + starke Sicherheit; kleine Karten knacken und lecken. Wenn du das größte MiniMax M2.1 Build ausführen musst, kannst du lokal (LM Studio) sehen und /gateway/local-models. Kleinere/quantifizierte Modelle erhöhen das Prompt-Injektionsrisiko - siehe Security.
Wie mache ich gehosteten Modellverkehr in einer bestimmten Region¶
Wähle regionenangeheftete Endpunkte. OpenRouter stellt die in den USA gehosteten Optionen für MiniMax, Kimi und GLM zur Verfügung. Wählen Sie die in den USA gehostete Variante aus, um Daten in der Region zu behalten. Du kannst noch Anthropic/OpenAI neben diesen auflisten, indem du models.mode: "merge" verwendest, so dass Fallbacks verfügbar bleiben, während du den von dir ausgewählten regionalen Provider respektierst.
Muss ich ein Mac Mini kaufen, um dies zu installieren¶
Nein. OpenClaw läuft auf macOS oder Linux (Windows via WSL2). Ein Mac Mini ist optional - einige Leute kaufen einen als immer-On-Host, aber auch ein kleiner VPS, Home-Server oder Raspberry Pi-Class Box funktioniert.
Sie benötigen nur einen Mac für macOS-only Tools. Für iMessage, verwende BlueBubbles (empfohlen) - der BlueBubbles Server läuft auf jedem Mac, und das Gateway kann unter Linux oder anderswo laufen. Wenn Sie andere Werkzeuge nur für macOS benötigen, führen Sie das Gateway auf einem Mac aus oder paaren Sie einen MacOS-Knoten.
Docs: BlueBubbles, Nodes, Mac Remote-Modus.
Benötige ich einen Mac Mini für iMessage Unterstützung¶
Du brauchst ein macOS-Gerät in Nachrichten angemeldet. Es tut nicht muss ein Mac Mini sein - irgendein Mac funktioniert. Benutze BlueBubbles (empfohlen) für iMessage - der BlueBubbles Server läuft auf macOS, während das Gateway unter Linux oder anderswo laufen kann.
Gemeinsame Setups:
- Führen Sie das Gateway unter Linux/VPS aus und starten Sie den BlueBubbles Server auf jedem Mac, der in Nachrichten angemeldet ist.
- Führen Sie alles auf dem Mac aus, wenn Sie die einfachste Einzeleinstellung wünschen.
Docs: BlueBubbles, Nodes, Mac Remote-Modus.
Wenn ich ein Mac Mini kaufe, um OpenClaw zu starten kann ich es mit meinem MacBook Pro verbinden¶
Ja. Das Mac Mini kann das Gateway, und dein MacBook Pro kann sich als
Knoten (Begleitgerät) verbinden. Knoten führen das Gateway nicht aus - sie bieten zusätzliche
Fähigkeiten wie Bildschirm/Kamera/Leinwand und system.run auf diesem Gerät.
Gewöhnliches Muster:
- Gateway auf dem Mac mini (immer-on).
- MacBook Pro führt die macOS-App oder einen Knotenhost und Paare zum Gateway aus.
- Benutze
openclaw nodes status/openclaw nodes listum es zu sehen.
Dokumentation: Nodes, Nodes CLI.
Kann ich Bun verwenden¶
Bun ist nicht empfohlen. Wir sehen Laufzeitfehler insbesondere mit WhatsApp und Telegram. Verwende Knoten für stabile Gateways.
Wenn Sie immer noch mit Bun experimentieren wollen, machen Sie es auf einem nicht-produktiven Gateway ohne WhatsApp/Telegram.
Telegramm, was in erlaubt ist von¶
channels.telegram.allowFrom ist die Telegramm-Benutzer-ID (numerisch, empfohlen) oder @username. Es ist nicht der Bot-Benutzername.
Sicherer (kein Drittanbieter-Bot):
- DM deinen Bot, dann führe
openclaw logs --followaus und lesefrom.id.
Offizielle Bot API:
- DM deinen Bot, dann rufe
https://api.telegram.org/bot<bot_token>/getUpdatesauf und lesemessage.from.id.
Drittanbieter (weniger privat):
- DM
@userinfobotoder@getidsbot.
Siehe /channels/telegram.
Kann mehrere Personen eine WhatsApp-Nummer mit verschiedenen OpenClaw-Instanzen verwenden¶
Ja, über Multi-Agent-Routing. Binde die WhatsApp-DM jedes Absenders (Peer kind: "direct", Absender im E.164-Format wie +15551234567) an eine andere agentId, sodass jede Person ihren eigenen Workspace und Session-Store erhält. Antworten kommen immer noch vom gleichen WhatsApp-Konto, und die DM-Zugriffskontrolle (channels.whatsapp.dmPolicy / channels.whatsapp.allowFrom) ist global pro WhatsApp-Konto. Siehe Multi-Agent Routing und WhatsApp.
Kann ich einen schnellen Chat-Agent und ein Opus für Programmierer laufen¶
Ja. Multi-Agent-Routing: Geben Sie jedem Agent sein eigenes Standardmodell und binden Sie eingehende Routen (Provider-Konto oder bestimmte Peers) an jeden Agenten. Beispiel config lebt in Multi-Agent Routing. Siehe auch Models und Configuration.
Funktioniert Homebrew unter Linux¶
Ja. Homebrew unterstützt Linux (Linuxbrew). Schnellstart:
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
echo 'eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv)"' >> ~/.profile
eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv)"
braun Installation <formula>
Wenn du OpenClaw über das System ausführst, stelle sicher, dass der Service von PATH /home/linuxbrew/.linuxbrew/bin (oder dein Braupräfix) enthält, so dass brew-installierte Werkzeuge in nicht-login Shell auflösen.
Jüngste Builds stellen auch häufige User bin dirs auf Linux Systemd-Diensten vor (z.B. ~/.local/bin, ~/.npm-global/bin, ~/.local/share/pnpm, ~/. un/bin) und ehre PNPM_HOME, NPM_CONFIG_PREFIX, BUN_INSTALL, VOLTA_HOME, ASDF_DATA_DIR, NVM_DIR und FNM_DIR wenn gesetzt.
Was ist der Unterschied zwischen der hackbaren git-Installation und der npm Installation¶
- Hackable (git) install: vollständige Quelltext-Checkout, editierbar, am besten für Mitwirkende geeignet. Du ausführst Builds lokal und kannst Code/docs patchen.
- npm Installation: globale CLI-Installation, kein Repo, am besten für "nur ausführen". Updates kommen von npm dist-tags.
Docs: Erste Schritte, Updating.
Kann ich später zwischen npm und git installieren¶
Ja. Installieren Sie die andere Variante und führen Sie dann Doctor aus, so dass der Gateway-Service am neuen Einstiegspunkt punktet.
löscht deine Daten nicht - es ändert nur die OpenClaw-Code-Installation. Ihr Zustand
(~/.openclaw) und Arbeitsbereich (~/.openclaw/workspace) bleiben unberührt.
Von npm → git:
git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install
pnpm build
openclaw doctor
openclaw gateway restart
Von git → npm:
npm installieren -g openclaw@latest
openclaw doctor
openclaw gateway neustarten
Doctor erkennt ein Einstiegspunktkonflikt eines Gateway-Dienstes und bietet an, die Servicekonfiguration neu zu schreiben, um sie an die aktuelle Installation anzupassen (verwenden Sie --repair in der Automatisierung).
Backup-Tipps: siehe Backup-Strategie.
Soll ich das Gateway auf meinem Laptop oder einem VPS laufen¶
Kurze Antwort: wenn Sie 24/7 Zuverlässigkeit wollen, verwenden Sie einen VPS. Wenn du die niedrigste Reibung haben möchtest und du mit Ruhe/Neustart in Ordnung bist, führe sie lokal aus.
Laptop (lokale Gateway)
- Pros: keine Serverkosten, direkten Zugriff auf lokale Dateien, Live-Browser-Fenster.
- Cons: Sleep/Network Drops = Trennen, OS Updates/reboots unterbrechen, müssen wach bleiben.
VPS / Cloud
- Pros: immer, stabiles Netzwerk, kein Laptop Schlafstörungen, einfacher zu laufen.
- Cons: laufen oft kopflose (verwenden Sie Screenshots), nur Remote-Dateizugriff, Sie müssen SSH für Updates verwenden.
OpenClaw-spezifische Notiz: WhatsApp/Telegram/Slack/Mattermost (Plugin)/Discord funktionieren alle gut von einem VPS. Der einzige wirkliche Ausgleich ist der kopflose Browser gegen ein sichtbares Fenster. Siehe Browser.
Empfohlen Standard: VPS, wenn Sie Gateway zuvor getrennt haben. Local ist großartig, wenn Sie aktiv den Mac verwenden und lokale Dateizugriff oder UI-Automatisierung mit einem sichtbaren Browser wollen.
Wie wichtig es ist, OpenClaw auf einem dedizierten Rechner auszuführen¶
Nicht erforderlich, aber empfohlen für Zuverlässigkeit und Isolation.
- Dedizierter Host (VPS/Mac mini/Pi): immer, weniger Schlaf-/Reboot-Unterbrechungen, sauberere Berechtigungen, einfacher zu betreiben.
- Geteilter Laptop/Desktop: absolut gut für Testzwecke und aktive Nutzung, aber erwarten Pausen wenn der Rechner schläft oder aktualisiert wird.
Wenn du das Beste aus beiden Welten willst, behalte das Gateway auf einem dedizierten Host und paare deinen Laptop als Knoten für lokale Bildschirme/Kamera/Exec-Tools. Siehe Nodes. Für Sicherheitsanleitung, lesen Sie Security.
Was sind die minimalen VPS-Anforderungen und empfohlenen OS¶
OpenClaw ist Leichtgewicht. Für ein einfaches Gateway + einen Chatkanal:
- Absolute Minimum: 1 vCPU, 1 GB RAM, ~500MB Festplatte.
- Empfohlen: 1-2 vCPU, 2 GB RAM oder mehr für Headroom (Logs, Medien, mehrere Kanäle). Knoten-Tools und Browser-Automatisierung können ressourcenhungrig sein.
OS: verwenden Sie Ubuntu LTS (oder jedes moderne Debian/Ubuntu). Der Linux-Installationspfad wird am besten dort getestet.
Docs: Linux, VPS hosting.
Kann ich OpenClaw in einer VM laufen und was sind die Anforderungen¶
Ja. Behandle eine VM gleich wie ein VPS: Sie muss immer eingeschaltet sein, erreichbar und und haben genug RAM für das Gateway und alle Kanäle, die du aktivierst.
Basisanleitung:
- Absoluter Minimum: 1 vCPU, 1 GB RAM.
- Empfohlen: 2 GB RAM oder mehr, wenn Sie mehrere Kanäle, Browserautomatisierung oder Medienwerkzeuge verwenden.
- OS: Ubuntu LTS oder ein anderes modernes Debian/Ubuntu.
Wenn Sie unter Windows sind, ist WSL2 das einfachste Setup im VM-Stil und hat die beste -Kompatibilität. Siehe Windows, VPS hosting. Wenn Sie macOS in einer VM verwenden, lesen Sie macOS VM.
Was ist OpenClaw?¶
Was ist OpenClaw in einem Absatz¶
OpenClaw ist ein persönlicher KI-Assistent, den Sie auf Ihren eigenen Geräten laufen. Es antwortet auf den Messaging-Oberflächen, die du bereits benutzt hast (WhatsApp, Telegram, Slack, Mattermost (Plugin), Discord, Google Chat, Signal, iMessage, WebChat) und kann auch Voice + eine Live-Leinwand auf unterstützten Plattformen tun. Das Gateway ist die immerwährende Kontrollebene; der Assistent ist das Produkt.
Was ist der Wert Proposition¶
OpenClaw ist nicht "nur ein Claude-Wrapper". Es ist ein lokal-first control plane, mit dem du einen fähigen Assistenten auf deiner eigenen Hardware ausführen kannst, erreichbar über die Chat-Apps, die du bereits benutzt hast mit Stateful Sessions, Speicher und Tools - ohne die Steuerung Ihrer Workflows an eine gehostete SaaS zu übergeben.
Highlights:
- Deine Geräte, deine Daten: Führe das Gateway aus, wo immer du willst (Mac, Linux, VPS) und behalte den Arbeitsbereich* Sitzungsverlauf lokal.
- Echte Kanäle, keine Web-Sandbox: WhatsApp/Telegram/Slack/Discord/Signal/iMessage/etc, plus mobile Stimme und Leinwand auf unterstützten Plattformen.
- Model-agnostic: verwenden Sie Anthropic, OpenAI, MiniMax, OpenRouter, etc., mit per-agent Routing und Failover.
- Lokale Option: Lokale Modelle ausführen, so dass alle Daten auf deinem Gerät bleiben können wenn du möchtest.
- Multi-Agent-Routing: trennt Agenten pro Kanal, Konto oder Aufgabe, alle mit eigenem Arbeitsbereich und Standardeinstellungen.
- Open Source und gehackbar: Inspektion, Erweiterung und Selbst-Host ohne Händler-Slock-In.
Docs: Gateway, Channels, Multi-agent, Memory.
Ich stelle gerade fest, was ich zuerst machen soll¶
Gute erste Projekte:
- Erstellen Sie eine Website (WordPress, Shopify, oder eine einfache statische Site).
- Prototyp einer mobilen App (Umriss-, Bildschirme, API-Plan).
- Dateien und Ordner organisieren (bereinigen, benennen, tagging).
- Verbinden Sie Google Mail und automatisieren Sie Zusammenfassungen oder Follow-Ups.
Es kann große Aufgaben bewältigen, aber es funktioniert am besten, wenn Sie sie in Phasen aufteilen und Sub-Agenten für parallele Arbeit verwenden.
Was sind die fünf besten täglichen Anwendungsfälle für OpenClaw¶
Alltagssiege sehen in der Regel so aus:
- Persönliche Briefings: Zusammenfassungen von Posteingang, Kalender und Nachrichten, die dir wichtig sind.
- Forschung und Entwurf: Schnellforschung, Zusammenfassungen und erste Entwürfe für E-Mails oder Doktoranden.
- Erinnerungen und Follow-ups: cron oder Heartbeat getriebene Stupunkte und Checklisten.
- Browserautomatisierung: Formulare ausfüllen, Daten sammeln und Web-Aufgaben wiederholen.
- Geräteübergreifende Koordination: Senden Sie eine Aufgabe von Ihrem Telefon aus, lassen Sie das Gateway auf einem Server laufen und erhalten Sie das Ergebnis wieder im Chat.
Kann OpenClaw mit Lead gen Outtreach Anzeigen und Blogs für eine SaaS helfen¶
Ja für Forschung, Qualifizierung und Entwurf. Es kann Websites scannen, Shortlisten bauen, Perspektiven zusammenfassen und Outtreach oder Ad-Copy Entwürfe schreiben.
Für Outtreach oder Adruns, halte einen Menschen in der Schleife. Vermeiden Sie Spam, folgen Sie lokalen Gesetzen und Plattformrichtlinien, und überprüfen Sie vor dem Versand. Das sicherste Muster ist OpenClaw zu entwerfen und du bestätigst.
Docs: Security.
Was sind die Vorteile gegenüber Claude Code für die Webentwicklung¶
OpenClaw ist ein persönlicher Assistent und Koordinationsschicht, kein IDE-Ersatz. Verwende Claude Code oder Codex für die schnellste direkte Programmierung Schleife innerhalb eines Repos. Verwenden Sie OpenClaw wenn Sie dauerhaften Speicher, Zugriff über Geräte hinweg und Orchestrierung von Werkzeugen.
Vorteile:
- Dauerhafter Arbeitsspeicher + Arbeitsbereich über Sitzungen hinweg
- Zugriff auf mehrere Plattformen (WhatsApp, Telegram, TUI, WebChat)
- Werkzeug-Orchestrierung (Browser, Dateien, Planung, Hooks)
- Immer Gateway (auf einem VPS laufen, von überall interagieren)
- Knoten für lokalen Browser/Bildschirm-/Kamera/exec
Showcase: https://openclaw.ai/showcase
Fertigkeiten und Automatisierung¶
Wie kann ich Fähigkeiten anpassen, ohne das Repo schmutzig zu halten¶
Verwaltete Overrides verwenden, anstatt die Repo-Kopie zu bearbeiten. Lege deine Änderungen in ~/.openclaw/skills/<name>/SKILL.md fest (oder füge einen Ordner über skills.load.extraDirs in ~/.openclaw/openclaw.json hinzu). Precedence ist <workspace>/skills > ~/.openclaw/skills > gebündelt, so dass verwaltete Überschreibungen ohne git gewinnen. Nur Upstream-würdige Bearbeitungen sollten im Repo leben und als PRs ausgehen.
Kann ich Fähigkeiten aus einem benutzerdefinierten Ordner laden¶
Ja. Füge zusätzliche Verzeichnisse über skills.load.extraDirs in ~/.openclaw/openclaw.json (niedrigster Präzedenzfall) hinzu. Standardpriorität bleibt: <workspace>/skills → ~/.openclaw/skills → bundled → skills.load.extraDirs. clawhub installiert sich standardmäßig in ./skills, was OpenClaw als <workspace>/skills behandelt.
Wie kann ich verschiedene Modelle für verschiedene Aufgaben verwenden¶
Die heute unterstützten Muster sind:
- Cron-Jobs: Einzelne Jobs können ein
Modellpro Job überschreiben. - Sub-Agenten: Routen Sie Aufgaben, um Agenten mit unterschiedlichen Standardmodellen zu trennen.
- On-Demand-Switch: Benutze
/model, um das aktuelle Sitzungsmodell jederzeit zu wechseln.
Siehe Cron jobs, Multi-Agent Routing, und Slash commands.
Der Bot friert ein, während schwere Arbeit Wie kann ich abladen, dass¶
Benutze Sub-Agenten für lange oder parallele Aufgaben. Sub-Agenten laufen in ihrer eigenen Sitzung, geben Sie eine Zusammenfassung zurück und halten Ihren Hauptchat auf dem Laufenden.
Bitten Sie Ihren Bot, "einen Sub-Agent für diese Aufgabe zu spawnen" oder verwenden Sie /subagents.
Benutze /status im Chat um zu sehen, was das Gateway gerade macht (und ob es beschäftigt ist).
Token-Tipp: Sowohl lange Aufgaben als auch Sub-Agenten konsumieren Token. Wenn die Kosten ein Problem sind, setzen Sie ein
billigeres Modell für Sub-Agenten via agents.defaults.subagents.model.
Docs: Sub-agents.
Cron oder Erinnerungen feuern nicht Was sollte ich überprüfen¶
Cron läuft innerhalb des Gateway-Prozesses. Wenn das Gateway nicht kontinuierlich läuft, werden geplante Jobs nicht ausgeführt.
Checkliste:
- Bestätige cron ist aktiviert (
cron.enabled) undOPENCLAW_SKIP_CRONist nicht gesetzt. - Überprüfen Sie, ob das Gateway 24/7 läuft (keine Ruhe/Neustarte).
- Überprüfen Sie die Zeitzone Einstellungen für den Job (
--tzvs Host-Zeitzone).
Debug:
openclaw cron läuft <jobId> --force
openclaw cron läuft --id <jobId> --limit 50
Docs: Cron jobs, Cron vs Heartbeat.
Wie installiere ich Fähigkeiten unter Linux¶
Benutze ClawHub (CLI) oder lege Fähigkeiten in deinen Arbeitsbereich ab. Die macOS Skills UI ist unter Linux nicht verfügbar. Durchsuche die Fertigkeiten unter https://clawhub.com.
Installieren Sie ClawHub CLI (wählen Sie einen Paketmanager):
npm i -g clawhub
pnpm add -g clawhub
Darf OpenClaw Aufgaben nach einem Zeitplan oder im Hintergrund ausführen¶
Ja. Gateway-Scheduler verwenden:
- Cron-Jobs für geplante oder wiederkehrende Aufgaben (beim Neustart bestehen).
- Heartbeat für periodische Überprüfungen der Hauptsitzung.
- Einzelarbeiten für autonome Agenten, die Zusammenfassungen veröffentlichen oder in Chats liefern.
Docs: Cron jobs, Cron vs Heartbeat, Heartbeat.
Kann ich Apple-MacOS-Nur-Fähigkeiten von Linux verwenden?¶
Nicht direkt. macOS-Fertigkeiten werden von metadata.openclaw.os plus benötigte Binärdateien angegriffen, und Fähigkeiten werden nur dann im System-Prompt angezeigt, wenn sie auf dem Gateway-Host zugelassen sind. Unter Linux werden nur darwin-skills (wie apple-notes, apple-reminders, things-mac) nicht geladen, es sei denn, Sie überschreiben das Tor.
Du hast drei unterstützte Muster:
**Option A - führen Sie das Gateway auf einem Mac (einfachste). * Führen Sie das Gateway aus, wo die macOS-Binärdateien existieren, dann verbinden Sie sich mit Linux im Remote-Modus oder über Maßstab. Die Fähigkeiten werden normalerweise geladen, weil der Gateway-Host macOS ist.
**Option B - einen macOS-Knoten verwenden (kein SSH). * Führen Sie das Gateway auf Linux aus, paaren Sie einen MacOS-Knoten (Menüleisten-App), und setze Knoten-Ausführungsbefehle auf "Always Ask" oder "Always Allow" auf dem Mac. OpenClaw kann Fähigkeiten nur für macOS als förderfähig behandeln, wenn die benötigten Binärdateien auf dem Knoten existieren. Der Agent führt diese Fähigkeiten über das Werkzeug "nodes" aus. Wenn Sie "Always Ask" wählen, fügt die Genehmigung "Always Allow" in der Prompt-Liste diesen Befehl hinzu.
**Option C - proxy macOS-Binaries über SSH (erweitert). * Behalten Sie das Gateway auf Linux, aber lassen Sie die benötigten CLI Binärdateien zu SSH Wrapper auflösen, die auf einem Mac laufen. Dann überschreiben Sie die Fähigkeiten, um Linux zu ermöglichen, so dass es berechtigt bleibt.
- Erstelle einen SSH-Wrapper für die Binärdatei (Beispiel:
memofür Apple Notes):
bash
#!/usr/bin/env bash
setzen -euo pipefail
exec ssh -T user@mac-host /opt/homebrew/bin/memo "$@"
-
Setze den Wrapper auf
PATHauf den Linux-Host (z.B.~/bin/memo). -
Überschreibe die Skill-Metadaten (Arbeitsbereich oder
~/.openclaw/skills), um Linux zu ermöglichen:
```markdown
Name: apple-notes description: Verwalte Apple Notizen über die Memo CLI auf macOS. metadata: { "openclaw": { "os": ["darwin", "linux"], "requires": { "bins": ["memo"] } } } }
```
- Starten Sie eine neue Sitzung, damit der Skill-Schnappschuss aktualisiert wird.
Hast du eine Notion oder HeyGen-Integration¶
Heute nicht eingebaut.
Optionen:
- Benutzerdefinierte Fertigkeit / Plugin: am besten für zuverlässigen API-Zugriff (Notion/HeyGen beide haben APIs).
- Browserautomatisierung: funktioniert ohne Code, ist aber langsamer und zerbrechlicher.
Wenn Sie den Kontext pro Kunde behalten möchten (Agentur-Workflows), ist ein einfaches Muster folgendes:
- Eine Notion-Seite pro Client (Kontext + Einstellungen + aktive Arbeit).
- Bitten Sie den Agenten, diese Seite am Anfang einer Sitzung zu laden.
Wenn du eine native Integration möchtest, öffne eine Feature-Anfrage oder baue eine Fertigkeit , die diese APIs zielt.
Fähigkeiten installieren:
clawhub Installation <skill-slug>
clawhub update --all
ClawHub installiert sich in . skills unter deinem aktuellen Verzeichnis (oder fällt auf deinen konfigurierten OpenClaw-Arbeitsbereich zurück); OpenClaw behandelt dies als <workspace>/skills auf der nächsten Sitzung. Platziere sie in ~/.openclaw/skills/<name>/SKILL.md. Einige Fähigkeiten erwarten Binärdateien über Homebrew installiert; unter Linux bedeutet das Linuxbrew (siehe obiger Eintrag in der Homebrew Linux FAQ). Siehe Skills und ClawHub.
Wie installiere ich die Chrome-Erweiterung für die Übernahme des Browsers¶
Verwenden Sie den integrierten Installer und laden Sie dann die entpackte Erweiterung in Chrome:
openclaw browser extension install
openclaw browser extension path
Dann Chrome → chrome://extensions → "Developer mode" aktivieren → "Load unpacked" → Diesen Ordner auswählen.
Vollständige Anleitung (inklusive Remote-Gateway + Sicherheitshinweise): Chrome-Erweiterung
Wenn das Gateway auf dem gleichen Rechner läuft wie Chrome (Standard-Setup), brauchst du normalerweise nichts Extras. Wenn das Gateway anderswo läuft, führen Sie einen Node-Host auf der Browser-Maschine aus, damit das Gateway Browseraktionen weiterleiten kann. Sie müssen immer noch auf den Erweiterung-Button auf dem Tab klicken, den Sie steuern möchten (es wird nicht automatisch angehängt).
Sandboxen und Speicher¶
Gibt es ein dediziertes Sandbox-Doc¶
Ja. Siehe Sandboxing. Für Docker-spezifische Einrichtung (vollständiges Gateway in Docker oder Sandbox-Bildern), siehe Docker.
Docker fühlt sich begrenzt an, wie ich volle Funktionen aktivieren kann¶
Das Standard-Image ist sicherheitsorientiert und läuft als Benutzer node, daher enthält es keine Systempakete, Homebrew oder gebündelte Browser. Für ein volleres Setup:
- Persisiere
/home/nodemitOPENCLAW_HOME_VOLUMEdamit Caches überleben. - Das Backsystem taucht mit
OPENCLAW_DOCKER_APT_PACKAGESin das Bild auf. - Installieren Sie Playwright Browser über das mitgelieferte CLI:
node /app/node_modules/playwright-core/cli.js installieren chromium - Legen Sie
PLAYWRIGHT_BROWSERS_PATHfest und stellen Sie sicher, dass der Pfad erhalten bleibt.
Kann ich DMs persönlich halten, aber Gruppen mit einem Agenten öffentlich machen
Ja - wenn dein privater Datenverkehr DM ist und dein öffentlicher Datenverkehr Gruppen ist.
Benutze agents.defaults.sandbox.mode: "non-main" so dass die Gruppen/Kanalsitzungen (nicht-Hauptschlüssel) in Docker laufen, während die Haupt-DM-Sitzung auf dem Host bleibt. Dann beschränken Sie die Werkzeuge, die in Sandbox-Sessions über tools.sandbox.tools verfügbar sind.
Setup walkthrough + Beispiel config: Gruppen: Persönliche DMs + öffentliche Gruppen
Schlüsselkonfigurationsreferenz: Gateway-Konfiguration
Wie binde ich einen Hostordner in die Sandbox ein¶
Setze agents.defaults.sandbox.docker.binds auf ["host:path:mode"] (z.B. "/home/user/src:/src:ro"). Global + per-agent binds merge; per-agent binds werden ignoriert, wenn scope: "shared". Benutze :ro für alles sensible und erinnere dich an Bindungen, die die Sandbox-Dateisystem-Wände umgehen. Siehe Sandboxing und Sandbox vs Tool Policy vs Elevated für Beispiele und Sicherheitshinweise.
Wie funktioniert Speicher¶
OpenClaw Speicher ist nur Markdown Dateien im Agent-Arbeitsbereich:
- Tägliche Notizen in
memory/YYY-MM-TTD.md - Langfristige Notizen in
MEMORY.mdkuratiert (nur Haupt/Privatsitzungen)
OpenClaw führt auch einen **stillen Vorverdichtungsspeicher aus, um das Modell daran zu erinnern, haltbare Notizen vor der automatischen Verdichtung zu schreiben. Dies wird nur ausgeführt, wenn der Workspace beschreibbar ist (schreibgeschützte Sandboxes überspringen es). Siehe Memory.
Speicher vergisst immer wieder, wie mache ich es Stick¶
Bitten Sie den Bot, die Tatsache in den Speicher zu schreiben zu schreiben. Langfristige Notizen gehören in MEMORY.md,
kurzfristiger Kontext geht in memory/YYY-MM-DD.md.
Dies ist ein Bereich, den wir noch verbessern. Es hilft, das Modell daran zu erinnern, Erinnerungen zu speichern; wird es wissen, was zu tun ist. Wenn es immer wieder vergisst, stelle sicher, dass das Gateway bei jedem Lauf denselben Arbeitsbereich verwendet.
Docs: Memory, Agent-Arbeitsbereich.
Benötigt semantische Speichersuche einen OpenAI-API-Schlüssel¶
Nur wenn Sie OpenAI Einbetten verwenden. Codex OAuth deckt Chat/Vervollständigung ab und
gewährt nicht Einbettungszugriff so Einloggen mit dem Codex (OAuth oder dem
Codex CLI Login) hilft nicht bei der semantischen Speichersuche. OpenAI Einbettungen
benötigen noch einen echten API-Schlüssel (OPENAI_API_KEY oder models.providers.openai.apiKey).
Wenn Sie keinen Provider explizit setzen, wählt OpenClaw einen Provider automatisch aus, wenn er
einen API-Schlüssel auflösen kann (auth Profile, models.providers.*.apiKey, oder env vars).
Es bevorzugt OpenAI, wenn ein OpenAI-Schlüssel aufgelöst wird, ansonsten Gemini wenn ein Gemini-Key
aufgelöst wird. Wenn keiner der beiden Schlüssel verfügbar ist, bleibt die Speichersuche deaktiviert, bis Sie sie
konfigurieren. Wenn Sie einen lokalen Modellpfad konfiguriert und vorhanden haben, bevorzugt OpenClaw
local.
Wenn Sie lieber lokal bleiben möchten, setzen Sie memorySearch.provider = "local" (und optional
memorySearch.fallback = "keine"). Wenn Sie Gemini einbetten wollen, setzen Sie
memorySearch.provider = "gemini" und stellen GEMINI_API_KEY (oder
memorySearch.remote.apiKey). Wir unterstützen OpenAI, Gemini oder lokal Einbetten von
Modellen - siehe Memory für die Setup-Details.
Dauerhafter Speicher Was sind die Grenzen¶
Speicherdateien leben auf der Festplatte und bleiben solange bestehen, bis Sie sie löschen. Das Limit ist Ihr Speicher, nicht das Modell. Der Session-Kontext ist immer noch durch das Modell Kontextfenster begrenzt, so dass lange Gespräche kompakt oder abgeschnitten werden können. Aus diesem Grund existiert die Speichersuche - sie zieht nur die relevanten Teile zurück in den Kontext.
Wo die Dinge auf der Festplatte leben¶
Wird alle Daten mit OpenClaw lokal gespeichert¶
Nein - OpenClaw's Status ist local, aber externe Dienste sehen noch was du ihnen schickst.
- Lokal standardmäßig: Sitzungen, Speicherdateien, Konfiguration und Arbeitsbereich live auf dem Gateway-Host
(
~/.openclaw+ dein Arbeitsbereichs-Verzeichnis). - Entfernt nach Notwendigkeit: Nachrichten, die du an Modellanbieter gesendet hast (Anthropic/OpenAI/etc.) Gehe zu ihren APIs und Chat-Plattformen (WhatsApp/Telegram/Slack/etc.). Nachrichtendaten auf ihren Servern speichern.
- Du kontrollierst den Fußabdruck: mit lokalen Modellen hält die Eingabeaufforderungen auf deinem Computer, aber der Verkehr des Kanals geht immer noch über die Server des Kanals.
Verwandt: Agent-Arbeitsbereich, Memory.
Wo speichert OpenClaw seine Daten¶
Alles lebt unter $OPENCLAW_STATE_DIR (Standard: ~/.openclaw):
| Pfad | Zweck |
|---|---|
$OPENCLAW_STATE_DIR/openclaw.json |
Hauptkonfiguration (JSON5) |
$OPENCLAW_STATE_DIR/credentials/oauth.json |
Legaler OAuth-Import (bei der ersten Verwendung in Auth-Profile kopiert) |
$OPENCLAW_STATE_DIR/agents/<agentId>/agent/auth-profiles.json |
Auth Profile (OAuth + API-Schlüssel) |
$OPENCLAW_STATE_DIR/agents/<agentId>/agent/auth.json |
Laufzeitauth-Cache (automatisch verwaltet) |
$OPENCLAW_STATE_DIR/credentials/ |
Provider-Status (z.B. whatsapp/<accountId>/creds.json) |
$OPENCLAW_STATE_DIR/agents/ |
Per-Agenten-Status (agentDir + Sitzungen) |
$OPENCLAW_STATE_DIR/agents/<agentId>/sessions/ |
Gesprächsverlauf & -status (pro Agent) |
$OPENCLAW_STATE_DIR/agents/<agentId>/sessions/sessions.json |
Session-Metadaten (pro Agent) |
Legacy single agent path: ~/.openclaw/agent/* (migriert von openclaw doctor).
Dein Arbeitsbereich (AGENTS.md, Speicherdateien, Fähigkeiten, etc.) ist separat und konfiguriert über agents.defaults.workspace (Standard: ~/.openclaw/workspace).
Wo soll AGENTSmd SOULmd USERmd MEMORYmd leben¶
Diese Dateien leben im agent workspace, nicht ~/.openclaw.
- Arbeitsbereich (pro Agent):
AGENTS.md,SOUL.md,IDENTITY.md,USER.md,MEMORY.md(odermemory.md),memory/YYYY-MM-DD.md, optionalHEARTBEAT.md. - State Verzeichnis (
~/.openclaw): Konfiguration, Anmeldeinformationen, Authentifizierungsprofile, Sitzungen, Protokolle, und gemeinsame Fähigkeiten (~/.openclaw/skills).
Standard-Arbeitsbereich ist ~/.openclaw/workspace, konfigurierbar über:
{
agents: { defaults: { workspace: "~/.openclaw/workspace" } },
}
Wenn der Bot nach einem Neustart "vergisst" bestätigen Sie, dass das Gateway bei jedem Start denselben Arbeitsbereich verwendet (und denke: Remote-Modus benutzt den Gateway Host Arbeitsbereich nicht Ihr lokaler Laptop).
Tipp: Wenn du ein dauerhaftes Verhalten oder eine dauerhafte Einstellung wünschst, frage den Bot, es in AGENTS zu schreiben. d oder MEMORY.md statt sich auf den Chatverlauf zu verlassen.
Siehe Agent workspace und Memory.
Was ist die empfohlene Backup-Strategie¶
Lege deinen Agenten-Arbeitsbereich in ein privat Git Repo und sichere ihn irgendwo privat (zum Beispiel GitHub privat). Dies erfasst Speicher + AGENTS/SOUL/USER Dateien und lässt Sie später den "Geist" des Assistenten wiederherstellen.
nicht etwas unter ~/.openclaw übertragen (Anmeldeinformationen, Sitzungen, Tokens).
Wenn Sie eine vollständige Wiederherstellung benötigen, sichern Sie sowohl den Arbeitsbereich als auch das Zustandsverzeichnis
separat (siehe obige Migrationsfrage).
Docs: Agent Workspace.
Wie deinstalliere ich OpenClaw komplett¶
Siehe den dedizierten Führer: Uninstall.
Darf Agenten außerhalb des Arbeitsbereichs arbeiten¶
Ja. Der Arbeitsbereich ist der Standard cwd und Speicher Anker, nicht ein harter Sandbox.
Relative Pfade lösen sich innerhalb des Arbeitsbereichs, aber absolute Pfade können auf andere
Hostpositionen zugreifen, es sei denn, Sandboxen ist aktiviert. Wenn Sie Isolation benötigen, verwenden Sie
agents.defaults.sandbox oder die Sandbox für jeden Agenten. Wenn Sie
wollen, dass ein Repo das Standard-Arbeitsverzeichnis ist, zeigen Sie den Agenten
workspace auf das Repo-Root. Das OpenClaw-Repo ist nur Quellcode; behalte den
-Arbeitsbereich getrennt, es sei denn, du möchtest, dass der Agent in ihm arbeitet.
Beispiel (Repo als Standard cwd):
{
Agenten: {
defaults: {
workspace: "~/Projects/my-repo",
},
},
}
Im Remote-Modus, wo ist der Session-Shop¶
Session-Status gehört dem Gateway-Host. Wenn Sie im Remote-Modus sind, ist der Session-Speicher, um den Sie kümmern, auf dem Remote-Rechner, nicht auf Ihrem lokalen Laptop. Siehe Sitzungsmanagement.
Grundlagen konfigurieren¶
Welches Format ist die Konfiguration, wo ist es¶
OpenClaw liest eine optionale JSON5 Konfiguration von $OPENCLAW_CONFIG_PATH (Standard: ~/.openclaw/openclaw.json):
$OPENCLAW_CONFIG_PATH
Wenn die Datei fehlt, verwendet sie Safe-ish Standardwerte (einschließlich eines Standard-Arbeitsbereiches von ~/.openclaw/workspace).
Ich setze Gatewaybind Lan oder tailnet und hört jetzt nichts auf die Benutzeroberfläche sagt unbefugt¶
Nicht-Loopback-Binds benötigen auth. Konfiguriere gateway.auth.mode + gateway.auth.token (oder benutze OPENCLAW_GATEWAY_TOKEN).
{
Gateway: {
bind: "lan",
auth: {
Modus: "token",
token: "replace-me",
},
},
}
Hinweise:
gateway.remote.tokenist nur für entfernte CLI-Aufrufe und aktiviert keine lokale Gateway-Authentifizierung.- Die Kontroll-Oberfläche authentifiziert sich über
connect.params.auth.token(gespeichert in app/UI Einstellungen). Vermeiden Sie die Eingabe von Token in URLs.
Warum brauche ich jetzt ein Token auf localhost¶
Der Assistent generiert standardmäßig ein Gateway-Token (auch bei Loopback), so dass lokale WS-Clients sich authentifizieren müssen. Dies blockiert andere lokale Prozesse, die Gateway aufzurufen. Fügen Sie das Token in die Kontroll-UI-Einstellungen (oder Ihre Clientkonfiguration) ein, um sich zu verbinden.
Wenn du wirklich eine Schleife öffnen möchtest, entferne gateway.auth aus deiner Konfiguration. Der Arzt kann jederzeit ein Token generieren: "openclaw doctor --generate-gateway-token".
Muss ich nach dem Ändern der Konfiguration neu starten¶
Das Gateway überwacht die Konfiguration und unterstützt Hot-Reload:
gateway.reload.mode: "hybrid"(Standard): Hot-apply sichere Änderungen, Neustart für kritische Änderungenhot,restart,offwerden ebenfalls unterstützt
Wie aktiviere ich Web-Suche und Web-Abruf¶
web_fetch funktioniert ohne API-Schlüssel. web_search erfordert einen Brave Search API
Schlüssel. Empfohlen: Führe openclaw configure --section web aus, um es in
tools.web.search.apiKey zu speichern. Umgebungsalternative: Setze BRAVE_API_KEY für den
Gateway-Prozess.
{
Tools: {
web: {
search: {
aktiviert: true
apiKey: "BRAVE_API_KEY_HIERE",
maxResults: 5,
},
Abruf: {
enabled: true,
},
},
},
}
Hinweise:
- Wenn du erlaubte Listen verwendest, füge
web_search/web_fetchodergroup:webhinzu. web_fetchist standardmäßig aktiviert (sofern nicht ausdrücklich deaktiviert).- Daemons lesen env vars von
~/.openclaw/.env(oder der Service-Umgebung).
Doku: Web tools.
Wie führe ich ein zentrales Gateway mit spezialisierten Mitarbeitern über Geräte hinweg¶
Das gemeinsame Muster ist ein Gateway (z.B. Raspberry Pi) plus Knoten und Agenten:
- Gateway (zentral): besitzt Kanäle (Signal/WhatsApp), Routing und Sitzungen.
- Knoten (Geräte): Macs/iOS/Android verbinden sich als Peripherie und enthüllen lokale Tools (
system.run,canvas,camera). - Agenten (Arbeiter): separate Gehirn/Arbeitsbereiche für spezielle Rollen (z.B. "Hetzner ops", "Persönliche Daten").
- Sub-Agenten: Spawne Hintergrundarbeit von einem Hauptmakler, wenn du Parallelität möchtest.
- TUI: mit dem Gateway verbinden und Agenten/Sitzungen wechseln.
Docs: Nodes, Remote Access, Multi-Agent Routing, Sub-agents, TUI.
Darf der OpenClaw-Browser kopflose laufen¶
Ja. Es ist eine Konfigurations-Option:
{
Browser: { headless: true },
Agenten: {
defaults: {
sandbox: { browser: { headless: true } },
},
},
}
Standard ist false (kopfvoll). Kopflos wird eher Anti-Bot-Kontrollen auf einigen Seiten auslösen. Siehe Browser.
Headless verwendet die gleiche Chromium-Engine und arbeitet für die meisten Automatisierungen (Formulare, Klicks, Scraping, Logins). Die wichtigsten Unterschiede:
- Kein sichtbares Browserfenster (verwenden Sie Screenshots wenn Sie Bilder benötigen).
- Einige Seiten sind strenger über die Automatisierung im kopflosen Modus (CAPTCHAs, Anti-Bot). Zum Beispiel blockiert X/Twitter oft kopflose Sitzungen.
Wie verwende ich Brave zur Browsersteuerung¶
Setze browser.executablePath auf deine Brave Binärdatei (oder jeden Chromium-basierten Browser) und starte das Gateway neu.
Sehen Sie sich die vollständigen Konfigurationsbeispiele in [Browser]an (/tools/browser#use-brave-or-another-chromium-based-browser).
Entfernte Gateways und Knoten¶
Wie die Befehle zwischen Telegram dem Gateway und Knoten übertragen werden¶
Telegramm-Nachrichten werden vom Gateway behandelt. Das Gateway führt den Agent aus und ruft nur dann Knoten über den Gateway WebSocket auf, wenn ein Knotenwerkzeug benötigt wird:
Telegramm → Gateway → Agent → node.* → Knoten → Gateway → Telegram
Knoten sehen keinen eingehenden Providerverkehr; sie empfangen nur Node-RPC-Anrufe.
Wie kann mein Agent auf meinen Computer zugreifen, wenn das Gateway entfernt gehostet wird¶
Kurze Antwort: Verbinden Sie Ihren Computer als Knoten. Das Gateway läuft woanders, aber es kann
node.* Werkzeuge (Bildschirm, Kamera, System) auf deinem lokalen Rechner über den Gateway WebSocket aufrufen.
Typisches Setup:
- Führen Sie das Gateway auf dem immerwährenden Host (VPS/Home-Server) aus.
- Legen Sie den Gateway-Host + Ihren Computer in das gleiche Hecknetz.
- Stellen Sie sicher, dass das Gateway WS erreichbar ist (tailnet bind or SSH tunnel).
- Öffne die macOS-App lokal und verbinde dich im Remote over SSH Modus (oder direkt tailnet) damit sie sich als Knoten registrieren kann.
- Den Knoten auf dem Gateway genehmigen:
bash
openclaw nodes pending
openclaw nodes approve <requestId>
Es wird keine separate TCP Bridge benötigt; Knoten verbinden sich über den Gateway WebSocket.
Sicherheits-Erinnerung: Das Kopieren eines macOS-Knotens erlaubt system.run auf diesem Rechner. Nur
Geräte denen Sie vertrauen, und überprüfen Sie Security.
Docs: Nodes, Gateway protocol, macOS remote mode, Security.
Skalierung ist verbunden, aber ich bekomme keine Antworten Was jetzt¶
Überprüfen Sie die Basics:
- Gateway läuft: "openclaw gateway status"
- Gateway-Gesundheit: "openclaw status"
- Kanal-Gesundheit:
openclaw channels status
Überprüfen Sie dann auth und routing:
- Wenn du den Schablonen-Server verwendest, stelle sicher, dass
gateway.auth.allowTailscalekorrekt eingestellt ist. - Wenn Sie sich über den SSH-Tunnel verbinden, bestätigen Sie, dass der lokale Tunnel oben ist und Punkte am rechten Hafen.
- Bestätigen Sie Ihre Zulassungslisten (DM oder Gruppe) mit Ihrem Konto.
Docs: Tailscale, [Fernzugriff/gateway/remote), Channels.
Können zwei OpenClaw-Instanzen miteinander kommunizieren¶
Ja. Es gibt keine eingebaute "Bot-to-Bot" Brücke, aber du kannst sie auf einige zuverlässige verschieben:
Einfach: benutze einen normalen Chatkanal, auf den beide Bots zugreifen können (Telegram/Slack/WhatsApp). Lassen Sie Bot A eine Nachricht an Bot B senden und dann Bot B wie gewohnt antworten.
CLI Bridge (generisch): Führen Sie ein Skript aus, das das andere Gateway mit
openclaw agent --message aufruft... --deliver, zielt auf einen Chat ab, wo der andere Bot
lauscht. Wenn sich ein Bot auf einem entfernten VPS befindet, verweisen Sie Ihr CLI auf dieses entfernte Gateway
über SSH/Maßstabstabe (siehe Remote Access).
Beispielmuster (führen Sie von einer Maschine aus, die das Zieltor erreichen kann):
openclaw agent --message "Hallo vom lokalen Bot" --deliver --channel telegram --reply-to <chat-id>
Tipp: Füge einen Wächter hinzu, damit die beiden Bots nicht endlos schleifen (nur erwähnen, Kanal Erlaubnislisten oder eine "Antworte nicht auf Bot Nachrichten"-Regel).
Docs: Remote Access, Agent CLI, Agent senden.
Benötige ich separate VPSes für mehrere Agenten¶
Nein. Ein Gateway kann mehrere Agenten beherbergen, jeder mit eigenem Arbeitsbereich, Standardeinstellungen, und Routing. Das ist das normale Setup und es ist viel billiger und einfacher als ein VPS pro Agent auszuführen.
Verwenden Sie separate VPSes nur, wenn Sie harte Isolation (Sicherheitsgrenzen) oder sehr verschiedene Konfigurationen benötigen, die Sie nicht teilen möchten. Andernfalls sollten ein Gateway und mehrere Agenten oder Sub-Agenten verwenden.
Gibt es einen Vorteil, einen Knoten auf meinem persönlichen Laptop anstelle von SSH von einem VPS zu verwenden¶
Ja - Knoten sind der erstklassige Weg, um Ihren Laptop von einem entfernten Gateway aus zu erreichen, und sie entsperren mehr als Shell-Zugang. Das Gateway läuft auf macOS/Linux (Windows via WSL2) und ist leichtgewichtig (eine kleine VPS oder Raspberry Pi-Klasse ist in Ordnung; 4 GB RAM ist reichlich), also ist ein gängiges Setup ein immerwährender Host plus Ihr Laptop als Knoten.
- Keine eingehende SSH erforderlich. Knoten verbinden sich mit dem Gateway WebSocket und verwenden Geräte-Paarung.
- Sicherere Ausführungskontrollen.
system.runwird von node allowlists/approvals auf diesem Laptop bewacht. - Weitere Geräte-Tools. Knoten zeigen zusätzlich zu
system.runCanvas,cameraundscreenan. - **Lokale Browser-Automatisierung. * Behalte das Gateway auf einem VPS, aber führen Sie Chrome lokal aus und übertragen Sie die Steuerung mit der Chrome-Erweiterung + einem Knoten-Host auf dem Laptop.
SSH ist gut für Ad-hoc Shell-Zugriff, aber Knoten sind einfacher für laufende Agenten-Workflows und Geräteautomatisierung.
Docs: Nodes, Knoten CLI, Chrome-Erweiterung.
Soll ich auf einem zweiten Laptop installieren oder einfach einen Knoten hinzufügen¶
Wenn du nur lokale Werkzeuge (Bildschirm/Kamera/ausführen) auf dem zweiten Laptop brauchst, füge es als Knoten hinzu. Dies hält ein einzelnes Gateway und vermeidet doppelte Konfiguration. Lokale Knotenwerkzeuge sind zur Zeit nur macOS, aber wir planen, sie auf andere Betriebssysteme zu erweitern.
Installieren Sie ein zweites Gateway nur, wenn Sie harte Isolierung oder zwei vollständig getrennte Bots benötigen.
Docs: Nodes, Knoten CLI, Mehrere Gateways.
Knoten führen einen Gateway-Dienst aus¶
Nein. Nur ein Gateway** sollte pro Host ausgeführt werden, es sei denn, Sie führen absichtlich isolierte Profile aus (siehe Mehrere Gateways). Knoten sind Peripheriegeräte, die mit dem Gateway verbinden (iOS/Android Knoten oder macOS "Knotenmodus" in der Menüleiste. Für kopflose Knoten Hosts und CLI Steuerung, siehe Knoten Host CLI.
Ein vollständiger Neustart wird für Änderungen von gateway, discovery und canvasHost benötigt.
Gibt es einen API-RPC-Weg um die Konfiguration zu übernehmen¶
Ja. config.apply validates + schreibt die vollständige Konfiguration und startet das Gateway als Teil der Operation neu.
configapply wischte meine Config Wie kann ich wiederherstellen und dies vermeiden¶
config.apply ersetzt die komplette Konfiguration. Wenn du ein Teilobjekt sendest, wird alles
entfernt.
Wiederherstellen:
- Wiederherstellen aus dem Backup (git oder ein kopiertes
~/.openclaw/openclaw.json). - Wenn du kein Backup hast, führe
openclaw doctorerneut und konfiguriere Channels/Modelle neu. - Wenn dies nicht erwartet wurde, legen Sie einen Fehler auf und fügen Sie Ihre letzte bekannte Konfiguration oder ein Backup hinzu.
- Ein lokaler Codierer kann oft eine funktionierende Konfiguration aus Logs oder Geschichte rekonstruieren.
Vermeiden Sie:
- Benutze
openclaw config setfür kleine Änderungen. - Benutze
openclaw configurefür interaktive Bearbeitungen.
Docs: Config, Configure, Doctor.
Was ist eine minimale vernünftige Konfiguration für eine erste Installation¶
{
agents: { defaults: { workspace: "~/.openclaw/workspace" } },
channels: { whatsapp: { allowFrom: ["+15555550123"] } },
}
Dies legt Ihren Arbeitsbereich fest und schränkt ein, wer den Bot auslösen kann.
Wie konfiguriere ich eine Maßstabskala auf einem VPS und verbinde mich mit meinem Mac¶
Minimale Schritte:
- Installiere + melde dich auf dem VPS an
bash
curl -fsSL https://tailscale.com/install.sh | sh
sudo tailscale up
-
Installiere + melde dich auf deinem Mac an - Verwenden Sie die Maßstab-App und melden Sie sich im selben tailnet an.
-
**MagicDNS aktivieren (empfohlen) ** - Aktivieren Sie in der Tailscale Admin-Konsole MagicDNS, so dass der VPS einen stabilen Namen hat.
-
Benutze den tailnet hostname - SSH:
ssh user@your-vps.tailnet-xxxx.ts.net- Gateway WS:ws://your-vps.tailnet-xxxx.ts.net:18789
Wenn Sie die Steuerungsoberfläche ohne SSH wollen, verwenden Sie den Schneidangebot auf dem VPS:
openclaw gateway --tailscale serve
Dies hält das Gateway an Loopback gebunden und zeigt HTTPS über Maßstabskala auf. Siehe Tailscale.
Wie verbinde ich einen Mac-Knoten mit einem Remote-Gateway-Schnittstellen-Server¶
Serve stellt die Gateway Control UI + WS dar. Knoten verbinden sich über den gleichen Gateway WS Endpunkt.
Empfohlene Einrichtung:
- Stelle sicher, dass der VPS + Mac im selben tailnet ist.
- Benutze die macOS-App im Remote-Modus (SSH-Ziel kann der tailnet-Hostname sein). Die App wird den Gateway-Port Tunnel machen und sich als Knoten verbinden.
- Erlaube den Knoten im Gateway:
bash
openclaw nodes pending
openclaw nodes approve <requestId>
Docs: Gateway protocol, Discovery, macOS remote mode.
Env vars und .env laden¶
Wie lädt OpenClaw Umgebungsvariablen¶
OpenClaw liest Umgebungsvariablen aus dem übergeordneten Prozess (Shell, launchd/systemd, CI usw.) und zusätzlich laden:
.envaus dem aktuellen Arbeitsverzeichnis- eine globale Fallback‑Datei
.envaus~/.openclaw/.env(alias$OPENCLAW_STATE_DIR/.env)
Keine der .env‑Dateien überschreibt bestehende Umgebungsvariablen.
Sie können auch inline env vars in der Konfiguration definieren (nur angewendet, wenn der Prozess env fehlt):
{
env: {
OPENROUTER_API_KEY: "sk-or-...",
vars: { GROQ_API_KEY: "gsk-..." },
},
}
Siehe /environment für vollständige Prioritäten und Quellen.
Ich begann das Gateway über den Dienst und meine env vars verschwand Was jetzt¶
Zwei gemeinsame Fixes:
- Lege die fehlenden Schlüssel in
~/.openclaw/.envein, so dass sie abgeholt werden, auch wenn der Dienst deine Shell env nicht ererbt. - Shell-Import aktivieren (Opt-in-Bequemlichkeit):
{
env: {
shellEnv: {
enabled: true,
timeoutMs: 15000,
},
},
}
Dies führt Ihre Login-Shell aus und importiert nur fehlende erwartete Schlüssel (überschreiben). Env var equivalents:
OPENCLAW_LOAD_SHELL_ENV=1, OPENCLAW_SHELL_ENV_TIMEOUT_MS=15000.
Ich habe COPILOTGITHUBTOKEN gesetzt, aber Model-Status zeigt Shell env aus Warum¶
openclaw models status gibt an, ob shell env import aktiviert ist. "Shell env: off"
bedeutet nicht dass deine env vars fehlen - es bedeutet nur, dass OpenClaw nicht automatisch
deine Login-Shell lädt.
Wenn das Gateway als Dienst (launchd/systemd) läuft, wird es Ihre Shell- Umgebung nicht erben. Beheben durch eine der folgenden:
- Füge das Token in
~/.openclaw/.envein:
COPILOT_GITHUB_TOKEN=...
-
Oder aktivieren Sie den Shell-Import (
env.shellEnv.enabled: true). -
Oder füge es zu deinem Konfigurationsblock hinzu (gilt nur, wenn es fehlt).
Dann starten Sie das Gateway neu und recherchieren:
openclaw models status
Copilot Token werden von COPILOT_GITHUB_TOKEN gelesen (auch GH_TOKEN / GITHUB_TOKEN).
Siehe /concepts/model-providers und /environment.
Sitzungen und mehrere Chats¶
Wie starte ich eine neue Unterhaltung¶
Sende /new oder /reset als eigenständige Nachricht. Siehe Sitzungsmanagement.
Sitzungen automatisch zurücksetzen, wenn ich nie neue sende¶
Ja. Sitzungen laufen nach session.idleMinutes ab (Standard 60). Die nächste
Nachricht startet eine neue Session-ID für diesen Chat-Schlüssel. Dies löscht keine
Transkripte - es startet nur eine neue Sitzung.
{
Sitzung: {
idleMinutes: 240,
},
}
Gibt es eine Möglichkeit, ein Team von OpenClaw Instanzen zu einem CEO und vielen Agenten zu machen¶
Ja, über Multi-Agent-Routing und Sub-Agenten. Sie können einen Coordinator Agenten und mehrere Arbeiter Agenten mit eigenen Arbeitsbereichen und Modellen erstellen.
Trotzdem wird dies am besten als lustiges Experiment angesehen. Es ist token schwer und oft weniger effizient als mit einem Bot mit separaten Sitzungen. Das typische Modell, mit dem wir uns vorstellen, ist ein Bot, mit dem Sie sprechen, mit verschiedenen Sitzungen für parallele Arbeit. Dieser -Bot kann auch Sub-Agenten spawnen wenn nötig.
Docs: Multi-Agent routing, Sub-agents, Agents CLI.
Warum wurde Kontext abgeschnitten Mittelaufgabe Wie kann ich es verhindern¶
Der Session-Kontext ist durch das Modellfenster begrenzt. Lange Chats, große Werkzeugausgänge oder viele -Dateien können Verdichtung oder Kürzung auslösen.
Was hilft:
- Bitten Sie den Bot, den aktuellen Zustand zusammenzufassen und ihn in eine Datei zu schreiben.
- Benutze
/compactvor langen Aufgaben und/newbeim Ändern von Themen. - Halten Sie den wichtigen Kontext im Arbeitsbereich und bitten Sie den Bot, ihn wieder zu lesen.
- Verwenden Sie Sub-Agenten für lange oder parallele Arbeit, so dass der Hauptchat kleiner bleibt.
- Wählen Sie ein Modell mit einem größeren Kontextfenster, wenn dies oft passiert.
Wie setze ich OpenClaw komplett zurück, aber halte es installiert¶
Den Reset-Befehl verwenden:
openclaw reset
Nicht interaktiv zurücksetzen:
openclaw Reset --scope full --yes --non-interactive
Anschließend an Bord erneut starten:
openclaw onboard --install-daemon
Hinweise:
- Der Onboarding-Assistent bietet auch Reset an, wenn er eine vorhandene Konfiguration sieht. Siehe Wizard.
- Wenn du Profile benutzt hast (
--profile/OPENCLAW_PROFILE), setze jedes State Verzeichnis zurück (Standardwerte sind~/.openclaw-<profile>). - Dev reset:
openclaw gateway --dev --reset(dev-only; wipes dev config + credentials + sessions + workspace).
Im Kontext zu große Fehler wie kann ich zurücksetzen oder kompakt¶
Verwenden Sie eine der folgenden Optionen:
- Kompakt (hält die Unterhaltung, fasst aber ältere Wendungen zusammen):
/kompakt
oder /compact <instructions> um die Zusammenfassung zu leiten.
- Zurücksetzen (neue Sitzungs-ID für denselben Chatschlüssel):
/new
/reset
Wenn es weitergeht:
- Aktiviere oder tune Session pruning (
agents.defaults.contextPruning), um alte Werkzeugausgabe abzuschneiden. - Verwenden Sie ein Modell mit einem größeren Kontextfenster.
Docs: Compaction, Sitzungsschnitt, Sitzungsverwaltung.
Warum sehe ich LLM-Anfrage abgelehnt Nachrichten NcontentXtooluseinput Feld erforderlich¶
Dies ist ein Fehler bei der Anbieterüberprüfung: Das Modell hat einen tool_use Block ohne die erforderliche
input emittiert. Normalerweise ist die Session-Historie veraltet oder beschädigt (oft nach langen Threads
oder einer Tool/Schema-Änderung).
Korrektur: Starte eine neue Session mit /new (Standalone-Nachricht).
Warum bekomme ich alle 30 Minuten Herzschlag-Nachrichten¶
Herzbeats laufen standardmäßig alle 30m ab. Einschalten oder deaktivieren:
{
Agenten: {
defaults: {
heartbeat: {
every: "2h", // oder "0m" um
},
},
},
}
Wenn HEARTBEAT.md existiert, aber faktisch leer ist (nur Leerzeilen und Markdown-
Überschriften wie # Heading), überspringt OpenClaw den Heartbeat-Lauf, um API-
Aufrufe zu sparen.
Fehlt die Datei, läuft der Heartbeat trotzdem und das Modell entscheidet, was zu tun ist.
Per-agent überschreibt agents.list[].heartbeat. Docs: Heartbeat.
Muss ich ein Bot-Konto zu einer WhatsApp-Gruppe hinzufügen¶
Nein. OpenClaw läuft auf deinem eigenen Konto, also wenn du in der Gruppe bist, kann OpenClaw es sehen.
Standardmäßig werden Gruppenantworten blockiert, bis Absender erlaubt sind (groupPolicy: "allowlist").
Wenn du nur du in der Lage sein möchtest, Gruppenantworten auszulösen:
{
Kanäle: {
whatsapp: {
groupPolicy: "allowlist",
groupAllowFrom: ["+15551234567"],
},
},
}
Wie bekomme ich die JID einer WhatsApp-Gruppe¶
Option 1 (schnellste): Track-Logs und Senden einer Testnachricht in der Gruppe:
openclaw-Protokolle --follow --json
Suche nach chatId (oder from) und endet in @g.us, wie:
1234567890-1234567890@g.us.
Option 2 (wenn bereits konfiguriert/erlaubt): Listengruppen aus der Konfiguration:
openclaw Verzeichnisgruppen Liste --channel whatsapp
Docs: WhatsApp, Directory, Logs.
Warum antwortet OpenClaw nicht in einer Gruppe¶
Zwei gemeinsame Ursachen:
- Erwähnungsgating ist an (Standard). Du musst den Bot @erwähnen (oder Match
mentionPatterns). - Du hast
channels.whatsapp.groupsohne"*"konfiguriert und die Gruppe ist nicht erlaubt.
Siehe Groups und Gruppenmitteilungen.
Gruppenthesen teilen Kontext mit DMs¶
Direkte Chats werden standardmäßig in die Hauptsitzung eingeblendet. Gruppen/Kanäle haben ihre eigenen Sitzungsschlüssel und Telegram-Themen / Discord-Threads sind separate Sitzungen. Siehe Groups und Gruppenmitteilungen.
Wie viele Arbeitsbereiche und Agenten kann ich erstellen¶
Keine harten Grenzen. Dutzende (sogar Hunderte) sind in Ordnung, aber hüten Sie sich auf:
- Festplattenwachstum: Sitzungen + Transkripte live unter
~/.openclaw/agents/<agentId>/sessions/. - Tokenkost: mehr Agenten bedeuten mehr gleichzeitige Modellnutzung.
- Ops Overhead: pro Agent auth Profile, Arbeitsbereiche und Kanalrouting.
Tipps:
- Behalte einen aktiven Arbeitsbereich pro Agent (
agents.defaults.workspace). - Lösche alte Sitzungen (lösche JSONL oder speichere Einträge), wenn die Festplatte wächst.
- Verwende
openclaw doctor, um verirrte Arbeitsbereiche und Missverhältnisse im Profil zu erkennen.
Kann ich mehrere Bots oder Chats gleichzeitig betreiben, Slack und wie sollte ich das einrichten¶
Ja. Verwende Multi-Agent Routing um mehrere isolierte Agenten auszuführen und eingehende Nachrichten von Kanal/Account/Peer zu leiten. Slack wird als Kanal unterstützt und kann an bestimmte Agenten gebunden werden.
Browser-Zugriff ist leistungsstark, aber nicht "tun Sie irgendetwas ein menschliches Dosen" - Anti-Bot, CAPTCHAs, und MFA kann noch die Automatisierung blockieren. Benutzen Sie für die zuverlässigste Browsersteuerung die Chrome-Erweiterungsrelais auf dem Computer, auf dem der Browser läuft (und halten Sie das Gateway überall).
Best-Practice-Setup:
- Immer auf Gateways-Host (VPS/Mac mini).
- Ein Agent pro Rolle (Bindung).
- Slack Channel(s) an diese Agenten gebunden.
- Lokaler Browser über Extension Relais (oder einen Knoten) bei Bedarf.
Docs: Multi-Agent Routing, Slack, Browser, Chrome Erweiterung, Nodes.
Modelle: Standardeinstellungen, Auswahl, Aliase, Wechseln¶
Was ist das Standardmodell¶
OpenClaw's Standardmodell ist was Sie einstellen als:
agents.defaults.model.primary
Modelle werden als provider/model referenziert (Beispiel: anthropic/claude-opus-4-6). Wenn du den Provider weggelassen hast, nimmt OpenClaw derzeit anthropic als temporären Deprecation Fallback an - aber du solltest trotzdem explizit provider/model setzen.
Welches Modell empfehlen Sie¶
Empfohlen Standard: anthropic/claude-opus-4-6.
Gute Alternative: anthropic/claude-sonnet-4-5.
Verlässliche (weniger Zeichen): openai/gpt-5.2 - fast so gut wie Opus, nur weniger Persönlichkeit.
Budget: zai/glm-4.7.
MiniMax M2.1 hat eigene Doktor: MiniMax und Lokale Modelle.
Thumbnail-Regel: Benutze das beste Modell, das du sich leisten kannst für Arbeit mit hohem Einsatz und ein billigeres -Modell für Routine-Chat oder Zusammenfassungen. Sie können Modelle pro Agent leiten und Sub-Agenten nach paraletrieren lange Aufgaben (jeder Sub-Agent verbraucht Tokens). Siehe Models und Sub-agents.
Starke Warnung: schwächere/überquantifizierte Modelle sind anfälliger für Injektion und unsicheres Verhalten. Siehe Security.
Mehr Kontext: Models.
Kann ich selbst gehostete Modelle llamacpp vLLM Ollama verwenden¶
Ja. Wenn Ihr lokaler Server eine OpenAI-kompatible API aufdeckt, können Sie einen benutzerdefinierten Provider darauf zeigen. Ollama wird direkt unterstützt und ist der einfachste Weg.
Sicherheitshinweis: kleinere oder stark quantifizierte Modelle sind anfälliger für eine Injektion. Wir empfehlen große Modelle für jeden Bot, der Werkzeuge verwenden kann. Wenn Sie immer noch kleine Modelle wollen, aktivieren Sie Sandboxen und strenge Werkzeug-Zulassungslisten.
Docs: Ollama, Lokale Modelle, Modellanbieter, Security, Sandboxing.
Wie kann ich Modelle wechseln, ohne meine Konfiguration zu löschen¶
Benutze Modellbefehle oder bearbeite nur die Modell Felder. Vermeiden Sie die vollständige Konfiguration zu ersetzen.
Sichere Optionen:
/modelim Chat (schnell, pro Sitzung)openclaw models set ...(aktualisiert nur model config)openclaw configure --section model(interaktiv)- editiere
agents.defaults.modelin~/.openclaw/openclaw.json
Vermeide config.apply mit einem Teilobjekt, es sei denn, du beabsichtigst die gesamte Konfiguration zu ersetzen.
Wenn du die Konfiguration überschrieben hast, stelle sie aus dem Backup her oder führe openclaw doctor erneut aus, um sie zu reparieren.
Docs: Models, Configure, Config, Doctor.
Was verwenden OpenClaw, Fehler und Krill für Modelle¶
- OpenClaw + Fehler: Anthropisches Opus (
anthropic/claude-opus-4-6) - siehe Anthropic. - Krill: MiniMax M2.1 (
minimax/MiniMax-M2.1) - see MiniMax.
Wie kann ich Modelle ohne Neustart auf die Fliege schalten¶
Benutze den /model Befehl als eigenständige Nachricht:
/model sonnet
/model haiku
/model opus
/model gpt
/model gpt-mini
/model gemini
/model gemini-flash
Sie können die verfügbaren Modelle mit /model, /model list, oder /model status auflisten.
/model (und /model list) zeigt einen kompakten, nummerierten Picker. Nach Nummer wählen:
/model 3
Sie können auch ein bestimmtes Auth-Profil für den Anbieter erzwingen (pro Sitzung):
/model opus@anthropic:default
/model opus@anthropic:work
Tipp: /model status zeigt an, welcher Agent aktiv ist, welche auth-profiles.json Datei verwendet wird und welcher auth profile als nächstes ausprobiert wird.
Es zeigt auch den konfigurierten Provider-Endpunkt (baseUrl) und den API-Modus (api) an, wenn er verfügbar ist.
Wie löse ich ein Profil, das ich mit Profil gesetzt habe
Starte /model **ohne das @profile Suffix:
/model anthropic/claude-opus-4-6
Wenn du zur Standardeinstellung zurückkehren möchtest, wähle es aus /model (oder sende /model <default provider/model>).
Benutze /model status um zu bestätigen, welches auth Profil aktiv ist.
Kann GPT 5.2 für tägliche Aufgaben und Codex 5.3 für die Codierung verwenden¶
Ja. Setze einen als Standard und wechsele wie benötigt:
- Schneller Schalter (pro Sitzung):
/model gpt-5.2für tägliche Aufgaben,/model gpt-5.3-codexfür die Programmierung. - Standard + switch: setzt
agents.defaults.model.primaryaufopenai/gpt-5.2, dann wechseln Sie aufopenai-codex/gpt-5.3-codexwenn die Programmierung (oder umgekehrt). - Sub-Agenten: Route Codierung Aufgaben an Sub-Agenten mit einem anderen Standardmodell.
Siehe Models und Schrägbefehle.
Warum sehe ich Modell nicht erlaubt und dann keine Antwort¶
Wenn agents.defaults.models gesetzt ist, wird es zur allowlist für /model und jede
Session überschreibt. Wählen Sie ein Modell, das nicht in dieser Liste zurückgegeben wird:
Model "provider/model" is not allowed. Use /model to list available models.
Dieser Fehler wird statt einer normalen Antwort zurückgegeben. Korrektur: Füge das Modell zu
agents.defaults.models hinzu, entferne die Erlaubnisliste oder wähle ein Modell aus der /model list.
Warum sehe ich unbekanntes Modell minimaxMiniMaxM21¶
Dies bedeutet, dass der Provider nicht konfiguriert ist (keine MiniMax Providerkonfiguration oder Auth Profil gefunden), daher kann das Modell nicht gelöst werden. Eine Korrektur für diese Erkennung ist in 2026.1.12 (zum Zeitpunkt des Schreibens unveröffentlicht).
Checkliste reparieren:
- Aktualisieren Sie auf 2026.1.12 (oder starten Sie vom Quellcode
main), dann starten Sie das Gateway neu. - Stellen Sie sicher, dass MiniMax konfiguriert ist (Assistent oder JSON), oder dass ein MiniMax API-Schlüssel in env/auth Profilen vorhanden ist, damit der Provider injiziert werden kann.
- Benutze die exakte Model ID (Groß-/Kleinschreibung):
minimax/MiniMax-M2.1oderminimax/MiniMax-M2.1-lightning. - Run:
bash
openclaw models list
und wählen Sie aus der Liste (oder /model list im Chat).
Kann ich MiniMax als Standard und OpenAI für komplexe Aufgaben verwenden¶
Ja. Verwende MiniMax als Standard und wechsele bei Bedarf Modelle pro Sitzung.
Fallbacks sind für errors, nicht für "hard tasks", also verwende /model oder einen separaten Agent.
Option A: Wechsel pro Sitzung
{
env: { MINIMAX_API_KEY: "sk-...", OPENAI_API_KEY: "sk-... },
Agenten: {
defaults: {
model: { primary: "minimax/MiniMax-M2. },
Modelle: {
"minimax/MiniMax-M2. ": { alias: "minimax" },
"openai/gpt-5. ": { alias: "gpt" },
},
},
},
}
Dann:
/model gpt
Option B: separate Agenten
- Agent A default: MiniMax
- Agent B Standard: OpenAI
- Route nach Agenten oder benutze
/agentum zu wechseln
Docs: Models, Multi-Agent Routing, MiniMax, OpenAI.
Sind opus sonnet gpt eingebaute Verknüpfungen¶
Ja. OpenClaw liefert ein paar Standardshorthands (wird nur angewendet, wenn das Modell in agents.defaults.models existiert):
opus→anthropic/claude-opus-4-6sonnet→anthropic/claude-sonnet-4-5gpt→openai/gpt-5.2gpt-mini→openai/gpt-5-minigemini→google/gemini-3-Pro-Vorschaugemini-flash→google/gemini-3-flash-preview
Wenn Sie Ihren eigenen Alias mit dem gleichen Namen setzen, gewinnt Ihr Wert.
Wie kann ich Model-Verknüpfungen Aliase definieren¶
Aliase kommen von agents.defaults.models.<modelId>.alias. Beispiel:
{
Agenten: {
defaults: {
model: { primary: "anthropic/claude-opus-4-6" },
Modelle: {
"anthropic/claude-opus-4-6": { alias: "opus" },
"anthropic/claude-sonnet-4-5": { alias: "sonnet" },
"anthropic/claude-haiku-4-5": { alias: "haiku" },
},
},
},
}
Dann löst /model sonnet (oder /<alias> wenn unterstützt) an diese Model ID.
Wie füge ich Modelle anderer Anbieter wie OpenRouter oder ZAI hinzu¶
OpenRouter (pay-per-token; viele Modelle):
{
Agenten: {
defaults: {
model: { primary: "openrouter/anthropic/claude-sonnet-4-5" },
Modelle: { "openrouter/anthropic/claude-sonnet-4-5": {} },
},
},
env: { OPENROUTER_API_KEY: "sk-or-. ." },
}
Z.AI (GLM-Modelle):
{
Agenten: {
defaults: {
model: { primary: "zai/glm-4. },
Modelle: { "zai/glm-4. ": {} },
},
},
env: { ZAI_API_KEY: "..." },
}
Wenn Sie einen Provider/Model referenzieren, aber der benötigte Providerschlüssel fehlt, erhalten Sie einen Runtime Autth-Fehler (z. . Kein API-Schlüssel für Anbieter "zai") gefunden.
Kein API-Schlüssel für Anbieter nach dem Hinzufügen eines neuen Agenten
Dies bedeutet normalerweise, dass der neue Agent einen leeren Auth-Store hat. Auth ist pro Agent und gespeichert in:
~/.openclaw/agents/<agentId>/agent/auth-profiles.json
Lösungsoptionen:
- Führe `openclaw Agents add
aus und konfiguriere auth während des Assistenten. - Oder kopiere
auth-profiles.jsonaus der HauptmappeagentDirin dieagentDirdes neuen Agenten.
Verwende nicht agentDir zwischen Agenten; es verursacht auth/sessions-Kollisionen.
Model Failover und "Alle Modelle fehlgeschlagen"¶
Wie funktioniert Failover¶
Failover passiert in zwei Stufen:
- Auth Profil Rotation innerhalb des gleichen Providers.
- Modell‑Fallback zum nächsten Modell in
agents.defaults.model.fallbacks.
Cooldowns gelten für fehlerhafte Profile (exponentieller Backoff), so dass OpenClaw auch dann weiter reagieren kann, wenn ein Anbieter mit einer Rate begrenzt oder vorübergehend versagt.
Was bedeutet dieser Fehler¶
Keine Anmeldedaten für Profil "anthropic:default" gefunden
Es bedeutet, dass das System versucht hat, die Authentifizierungs-Profil-ID anthropic:default zu verwenden, aber konnte keine Anmeldeinformationen dafür im erwarteten Auth-Store finden.
Überprüfungsliste für keine Anmeldeinformationen für das Profil anthropicdefault gefunden¶
- Bestätige wo auth Profile leben (neue vs Legacy Pfade)
- Aktuell:
~/.openclaw/agents/<agentId>/agent/auth-profiles.json - Legacy:
~/.openclaw/agent/*(vonopenclaw doctor) - Bestätige dass dein env var vom Tor geladen wird
- Wenn du
ANTHROPIC_API_KEYin deiner Shell gesetzt hast, aber das Gateway über system/launchd ausführst, wird es möglicherweise nicht geerbt. Setze es in~/.openclaw/.envoder aktiviereenv.shellEnv. - Stelle sicher, dass du den richtigen Agenten bearbeitest
- Multi-Agent Setups bedeuten, dass es mehrere
auth-profiles.jsonDateien geben kann. - Sanity-Check Modell/Auth Status
- Benutze
openclaw models statusum konfigurierte Modelle zu sehen und ob Anbieter authentifiziert sind.
Fix Checkliste für keine Anmeldeinformationen für Profil anthropic
Dies bedeutet, dass der Run an ein anthropisches auth Profil gekoppelt ist, aber das Gateway kann es nicht in seinem auth Store finden.
- Benutze einen Setup-Token
- Führen Sie
claude setup-tokenaus und fügen Sie es mitopenclaw models auth setup-token --provider anthropicein. -
Wenn das Token auf einem anderen Rechner erstellt wurde, verwenden Sie
openclaw models auth paste-token --provider anthropic. -
Wenn du stattdessen einen API-Schlüssel verwenden möchtest
- Lege
ANTHROPIC_API_KEYin~/.openclaw/.envauf den Gateway-Host ein. -
Lösche jede angeheftete Reihenfolge, die ein fehlendes Profil erzwingt:
bash openclaw modelliert auth order clear --provider anthropic -
Bestätige deine Befehle auf dem Gateway-Host
- Im Remote-Modus werden automatisch Profile live auf dem Gateway-Rechner und nicht auf Ihrem Laptop gespeichert.
Warum hat es auch Google Gemini versucht und scheitert¶
Wenn Ihre Modellkonfiguration Google Gemini als Fallback enthält (oder Sie zu einem Gemini Shorthand) wechselt, wird OpenClaw es während des Modellfallbacks versuchen. Wenn Sie keine Google-Zugangsdaten konfiguriert haben, sehen Sie "Kein API-Schlüssel für Anbieter "google" gefunden.
Korrektur: entweder bietet Google auth, oder entfernt oder vermeidet Google Modelle in agents.defaults.model.fallbacks / Aliasse, so dass Fallback nicht dorthin geleitet wird.
LLM-Anfrage hat Nachrichten zurückgewiesen, dass Signatur Google Antigravität benötigt
Grund: Der Session-Verlauf enthält Denkblöcke ohne Signaturen (oft von ein abgebrochen/teilweiser Stream). Google Antigravity erfordert Unterschriften für Denkblöcke.
Korrektur: OpenClaw entfernt nun unsignierte Denkblöcke für Google Antigravity Claude. Wenn es immer noch scheint, starte eine neue Sitzung oder setze /thinking off für diesen Agenten.
Auth Profile: was sie sind und wie sie verwaltet werden¶
Verwandt: /concepts/oauth (OAuth fließt, Token Speicher, Multi-Account-Muster)
Was ist ein auth Profil¶
Ein Authentifizierungsprofil ist ein an einen Anbieter gebundener Referenzdatensatz (OAuth oder API-Schlüssel). Profile live in:
~/.openclaw/agents/<agentId>/agent/auth-profiles.json
Typische Profil-IDs¶
OpenClaw verwendet Provider-präfixe IDs wie:
anthropic:default(üblich, wenn keine E-Mail-Identität existiert)Anthropic:<email>für OAuth Identitäten- benutzerdefinierte IDs, die Sie wählen (z.B.
anthropic:work)
Kann ich kontrollieren, welches Autorenprofil zuerst ausprobiert wird¶
Ja. Konfiguration unterstützt optionale Metadaten für Profile und eine Bestellung pro Anbieter (auth.order.<provider>). Dies speichert Geheimnisse nicht ; es teilt die IDs dem Provider/Modus und legt die Drehreihenfolge fest.
OpenClaw kann ein Profil vorübergehend überspringen, wenn es in einer kurzen Cooldown (Kursbegrenzungen/Zeitüberschreitungen/Ausfallfehler) oder einem längeren deaktivierten Status (Abrechnung/unzureichende Credits) liegt. Führen Sie openclaw modelliert status --json aus und überprüfen Sie auth.unusableProfiles. Tuning: auth.cooldowns.billingBackoffHours*.
Du kannst auch eine per-agent Bestellung überschreiben (gespeichert in auth-profiles.json) über das CLI setzen:
# Standardwerte des konfigurierten Standardagenten (omit --agent)
openclaw Modelle auth order get --provider anthropic
# Sperrung der Rotation auf ein einzelnes Profil (nur versuchen Sie diese)
openclaw Models auth order set --provider anthropic anthropic:default
# Oder setzen Sie eine explizite Reihenfolge (Fallback innerhalb des Providers)
openclaw Modelle auth order set --provider anthropic:work anthropic:default
# Löschen (fall zurück zum config auth. rder / round-robin)
openclaw modelliert auth order clear --provider anthropic
Um einen bestimmten Agenten anzusprechen:
openclaw modelliert auth order set --provider anthropic --agent main anthropic:default
OAuth vs API-Schlüssel was der Unterschied ist¶
OpenClaw unterstützt beides:
- OAuth nutzt häufig den Zugang zu Abonnements (sofern zutreffend).
- API-Schlüssel verwenden Pay-per-Token Abrechnung.
Der Assistent unterstützt explizit Anthropisches Setup-Token und OpenAI Codex OAuth und kann API-Schlüssel für Sie speichern.
Gateway: Ports, "bereits läuft" und Remote-Modus¶
Welcher Port verwendet das Gateway¶
gateway.port steuert den einzelnen Multiplex-Port für WebSocket + HTTP (Kontroll-UI, Haken, etc.).
Priorität:
--port > OPENCLAW_GATEWAY_PORT > gateway.port > Standard 18789
Warum heißt openclaw Gateway-Status Laufzeit läuft, aber RPC Sonde fehlgeschlagen¶
Weil "läuft" die Supervisor Ansicht ist (launchd/systemd/schtasks). Die RPC-Sonde ist die CLI Verbindung zum Gateway WebSocket und ruft "status" auf.
Benutze openclaw Gateway status und vertraue diesen Zeilen:
Probe target:(die URL, die die Sonde tatsächlich verwendet)Listening:(was ist eigentlich auf dem Port gebunden)Letzter Gateway-Fehler:(gemeinsame Root-Ursache wenn der Prozess am Leben ist, aber der Port nicht lauscht)
Warum zeigt openclaw Gateway-Status Config cli und Config-Dienst unterschiedlich an¶
Du bearbeitest gerade eine Konfigurationsdatei, während der Dienst eine andere ausführt (oft ein --profile / OPENCLAW_STATE_DIR Missverhältnis).
Fix:
openclaw Gateway Installation --force
Führen Sie diese aus der gleichen --profile / Umgebung aus, die Sie verwenden möchten.
Was bedeutet eine andere Gateway-Instanz bereits lauscht¶
OpenClaw erzwingt eine Laufzeitsperre, indem er den WebSocket Listener sofort beim Start bindet (Standard ws://127.0.0.1:18789). Wenn die Bind mit EADDRINUSE fehlschlägt, wirft sie GatewayLockError und zeigt an, dass eine andere Instanz bereits lauscht.
Korrektur: stoppen Sie die andere Instanz, freien Port oder starten Sie mit openclaw gateway --port <port>.
Wie kann ich OpenClaw im Remote-Modus Client mit einem Gateway verbinden¶
Setze gateway.mode: "remote" und verweise auf eine WebSocket-URL, optional mit einem Token/Passwort:
{
gateway: {
Modus: "remote",
remote: {
url: "ws://gateway.tailnet:18789",
token: "your-token",
Passwort: "your-password",
},
},
}
Hinweise:
openclaw gatewaystartet nur, wenngateway.modelocalist (oder du das überschreibende Flag) übergeben hast.- Die macOS-App beobachtet die Konfigurationsdatei und wechselt live wenn sich diese Werte ändern.
Die Kontroll-Oberfläche sagt nicht autorisiert oder verbindet was jetzt wieder¶
Dein Gateway läuft mit aktiviertem auth (gateway.auth.*), aber die Oberfläche sendet nicht das passende Token/Passwort.
Fakten (von Code):
- Die Kontroll-Oberfläche speichert das Token im Browser localStorage Schlüssel
openclaw.control.settings.v1.
Fix:
- Schnellste:
openclaw dashboard(druckt + kopiert die Dashboard-URL, versucht zu öffnen; zeigt SSH Hinweis an, wenn kopflos). - Wenn du noch kein Token hast:
openclaw doctor --generate-gateway-token. - Wenn entfernt, öffnen Sie zuerst
ssh -N -L 18789:127.0.0.1:18789 user@hostund öffnen Siehttp://127.0.0.1:18789/. - Setze
gateway.auth.token(oderOPENCLAW_GATEWAY_TOKEN) auf dem Gateway-Host. - In den Kontroll-UI-Einstellungen fügen Sie den gleichen Token ein.
- Immer noch festgefahren? Führe
openclaw status --allaus und folge Troubleshooting. Siehe Dashboard für auth details.
Ich setze Gatewaybind tailnet aber es kann nichts binden hört¶
tailnet bind wählt eine angepasste IP aus deinen Netzwerkschnittstellen (100.64.0.0/10). Wenn der Rechner nicht auf der Maßstabstabstabelle ist (oder die Schnittstelle nicht verfügbar ist), gibt es nichts zu binden.
Fix:
- Skalierung auf diesem Host starten (so hat er eine 100.x-Adresse) oder
- Wechseln Sie zu
gateway.bind: "loopback"/"lan".
Hinweis: tailnet ist explizit. auto bevorzugt loopback; verwende gateway.bind: "tailnet" wenn du eine tailnet-only Bind möchtest.
Kann ich mehrere Gateways auf dem gleichen Host ausführen¶
Normalerweise kein - ein Gateway kann mehrere Messaging-Kanäle und -Agenten ausführen. Verwenden Sie nur mehrere Gateways wenn Sie Redundanz (z.B. Rettungsbot) oder harte Isolation benötigen.
Ja, aber Sie müssen isolieren:
OPENCLAW_CONFIG_PATH(pro Instanz config)OPENCLAW_STATE_DIR(Instanz-Status)agents.defaults.workspace(Workspace-Isolierung)- "gateway.port" (eindeutige Ports)
Schnelleinstellung (empfohlen):
- Verwenden Sie
openclaw --profile <name> …pro Instanz (automatisch erstellt~/.openclaw-<name>). - Setze einen einzigartigen
gateway.portin jeder Profilkonfiguration (oder passe--portfür manuelle Ausführungen). - Install a per-profile service:
openclaw --profile <name> gateway install.
Profile ergänzen auch Dienstnamen (bot.molt.<profile>; legacy com.openclaw.*, openclaw-gateway-<profile>.service, OpenClaw Gateway (<profile>)).
Vollständige Anleitung: Multiple gateways.
Was bedeutet ungültiger Handshake-Code 1008¶
Das Gateway ist ein WebSocket-Server, und es erwartet die allererste Nachricht an
ein connect Frame. Wenn es etwas anderes erhält, schließt es die Verbindung
mit code 1008 (Richtlinienverletzung).
Häufige Ursachen:
- Du hast die HTTP URL in einem Browser (
http://...) anstelle eines WS Clients geöffnet. - Sie haben den falschen Port oder Pfad verwendet.
- Ein Proxy oder Tunnel entfernte Auth-Header oder schickte eine Nicht-Gateway-Anfrage.
Schnell-Korrekturen:
- Benutze die WS URL:
ws://<host>:18789(oderwss://...wenn HTTPS). - Öffnen Sie den WS Port nicht in einem normalen Browser-Tab.
- Wenn auth aktiviert ist, füge das Token/Passwort in den
connectFrame ein.
Wenn Sie den CLI oder TUI verwenden, sollte die URL wie folgt aussehen:
openclaw tui --url ws://<host>:18789 --token <token>
Protokolldetails: Gateway protocol.
Protokollierung und Debugging¶
Wo sind Logs¶
Dateiprotokolle (strukturiert):
/tmp/openclaw/openclaw-YYYY-MM-DD.log
Sie können einen stabilen Pfad über logging.file setzen. File log level wird von logging.level gesteuert. Konsole verbosity wird von --verbose und logging.consoleLevel kontrolliert.
Schnellster Log-Schwanz:
openclaw logs --follow
Dienste/Supervisor Protokolle (wenn das Gateway über Launchd/System läuft):
- macOS:
$OPENCLAW_STATE_DIR/logs/gateway.logundgateway.err.log(Standard:~/.openclaw/logs/...; Profile verwenden~/.openclaw-<profile>/logs/...) - Linux:
journalctl --user -u openclaw-gateway[-<profile>].service -n 200 --no-pager - Windows:
schtasks /Query /TN "OpenClaw Gateway (<profile>)" /V /FO LIST
Siehe Troubleshooting für mehr.
Wie starte ich den Gateway-Dienst neu¶
Gateway-Helfer verwenden:
openclaw Gateway-Status
openclaw Gateway Neustart
Wenn du das Gateway manuell ausführst, kann openclaw gateway --force den Port wiederherstellen. Siehe Gateway.
Ich habe mein Terminal unter Windows geschlossen wie ich OpenClaw neu starten kann¶
Es gibt zwei Windows-Installationsmodus:
1) WSL2 (empfohlen): das Gateway läuft innerhalb von Linux.
Öffne PowerSell, gib WSL ein und starte neu:
wsl
openclaw Gateway Status
openclaw Gateway Neustart
Wenn Sie den Dienst nie installiert haben, starten Sie ihn im Vordergrund:
openclaw gateway run
2) Native Windows (nicht empfohlen): das Gateway läuft direkt unter Windows.
PowerShell öffnen und ausführen:
openclaw Gateway-Status
openclaw Gateway Neustart
Wenn Sie es manuell ausführen (kein Dienst), benutzen:
openclaw gateway run
Docs: Windows (WSL2), Gateway Service runbook.
Das Gateway ist offen, aber Antworten kommen nie an, was sollte ich überprüfen¶
Beginnen Sie mit einer schnellen Gesundheitsreife:
openclaw Status
openclaw modelliert Status
openclaw Channels Status
openclaw log --follow
Häufige Ursachen:
- Model auth nicht geladen auf dem Gateway host (überprüfen Sie den
models status). - Kanal-Paarung/erlaubte Sperrung von Antworten (überprüfen Sie die Channel-Konfiguration + Logs).
- WebChat/Dashboard ist ohne den richtigen Token geöffnet.
Wenn Sie entfernt sind, bestätigen Sie die Verbindung zwischen Tunnel/Maßstabsstufe, dass der WebSocket des Gateway erreichbar ist.
Docs: Channels, Troubleshooting, [Fernzugriff/gateway/remote).
Keine Verbindung zum Gateway¶
Dies bedeutet in der Regel, dass die Benutzeroberfläche die WebSocket-Verbindung verloren hat. Prüfen Sie:
- Wird das Gateway ausgeführt?
openclaw gateway status - Ist das Gateway gesund?
openclaw status - Hat die Benutzeroberfläche den richtigen Token?
openclaw dashboard - Ist die Verbindung zwischen Tunnel/Maßstabskala aufgebaut, wenn sie entfernt ist?
Dann tail Logs:
openclaw logs --follow
Docs: Dashboard, [Fernzugriff/gateway/remote), Troubleshooting.
Telegram setMyCommands schlägt fehl: Netzwerkfehler Was sollte ich überprüfen¶
Beginnen Sie mit Logs und Kanalstatus:
openclaw Channels Status
openclaw Channels protokolliert --channel telegram
Wenn Sie auf einem VPS oder hinter einem Proxy sind, bestätigen Sie, dass ausgehende HTTPS erlaubt ist und DNS funktioniert. Wenn das Gateway Remote ist, überprüfen Sie die Protokolle auf dem Gateway-Host.
Docs: Telegram, Kanal-Fehlerbehebung.
TUI zeigt keine Ausgabe Was soll ich überprüfen¶
Bestätigen Sie, dass das Gateway erreichbar ist und der Agent ausgeführt werden kann:
openclaw Status
openclaw modelliert den Status
openclaw log --follow
Benutze in der TUI /status, um den aktuellen Status zu sehen. Wenn du Antworten in einem Chat
Kanal erwartet, stelle sicher, dass die Zustellung aktiviert ist (/deliver on).
Docs: TUI, Schrägbefehle.
Wie kann ich komplett stoppen und dann das Gateway starten¶
Wenn Sie den Dienst installiert haben:
openclaw Gateway Stop
openclaw Gateway Start
Dies stoppt/startet den überwachten Dienst (startete auf macOS, System unter Linux). Benutzen Sie dies, wenn das Gateway im Hintergrund als Daemon läuft.
Wenn Sie im Vordergrund stehen, stoppen Sie mit Strg-C, dann:
openclaw gateway run
Docs: Gateway service runbook.
ELI5 openclaw gateway Neustart vs openclaw Gateway¶
openclaw gateway restart: Startet den Hintergrunddienst (launchd/system) neu.openclaw gateway: führt das Gateway im Vordergrund für diese Terminalsitzung aus.
Wenn Sie den Dienst installiert haben, verwenden Sie die Gateway-Befehle. Benutze openclaw gateway wenn
du einen einmaligen Vordergrundlauf möchtest.
Was ist der schnellste Weg, um mehr Details zu erhalten, wenn etwas versagt¶
Starten Sie das Gateway mit --verbose um mehr Konsolendetails zu erhalten. Prüfen Sie dann die Protokolldatei auf Channel-Autor, Modellrouting und RPC-Fehler.
Medien und Anhänge¶
Meine Fertigkeit hat ein imagePDF erzeugt, aber nichts wurde gesendet¶
Ausgehende Anhänge des Agenten müssen eine MEDIA:<path-or-url> Zeile (auf der eigenen Zeile) enthalten. Siehe OpenClaw assistant setup und Agent send.
CLI senden:
openclaw Nachricht senden --target +15555550123 --message "Here you go" --media /path/to/file.png
Auch überprüfen:
- Der Zielkanal unterstützt ausgehende Medien und wird nicht von Zulassungslisten blockiert.
- Die Datei liegt innerhalb der Größenbeschränkungen des Anbieters (Bilder werden auf max. 2048px vergrößert).
Siehe Images.
Sicherheit und Zugriffskontrolle¶
Ist es sicher, OpenClaw eingehenden DMs auszusetzen¶
Eingehende DMs als nicht vertrauenswürdige Eingabe behandeln. Standardwerte sollen das Risiko verringern:
- Standardverhalten auf DM-fähigen Kanälen ist Paarung:
- Unbekannte Absender erhalten einen Paarcode; der Bot verarbeitet seine Nachricht nicht.
- Bestätigen mit:
openclaw pairing genehmigen <channel> <code> - Ausstehende Anfragen werden auf 3 pro Kanal begrenzt; überprüfe
openclaw pairing list <channel>falls ein Code nicht angekommen ist. - Das Öffnen von DMs erfordert explizit opt-in (
dmPolicy: "open"und allowlist"*").
Führen Sie openclaw doctor aus, um riskante DM-Richtlinien zu erstellen.
Ist sofortige Injektion nur ein Anliegen für öffentliche Bots¶
Nein. Bei der Injektion von Prompt handelt es sich um nicht vertrauenswürdigen Inhalt, nicht nur, wer den Bot DM kann. Wenn dein Assistent externe Inhalte liest (Websuche/-abruf, Browserseiten, E-Mails, Dokumente, Anhänge, eingefügte Logs), können diese Inhalte Anweisungen enthalten, die versuchen, das Modell zu kapern. Dies kann auch passieren, wenn du der einzige Absender bist.
Das größte Risiko besteht darin, wenn Werkzeuge aktiviert sind: Das Modell kann in ausgetrickst werden, um Kontext zu filtern oder in Ihrem Namen aufzurufen. Reduzieren Sie den Blast‑Radius durch:
- unter Verwendung eines schreibgeschützten oder tool-deaktivierten "reader"-Agenten, um nicht vertrauenswürdige Inhalte zusammenzufassen
- hält
web_search/web_fetch/browserfür tool-fähige Agenten aus - sandboxing und strenge Werkzeugzulisten
Details: Security.
Sollte mein Bot eine eigene Github Account oder Telefonnummer haben¶
Ja, für die meisten Setups. Die Isolierung des Bots mit separaten Konten und Telefonnummern verringert den Strahlradius, wenn etwas schief geht. Dies erleichtert auch das Drehen von Zugangsdaten oder den Widerruf des Zugriffs, ohne Ihre persönlichen Konten zu beeinträchtigen.
Starte klein. Geben Sie Zugriff nur auf die Werkzeuge und Konten, die Sie tatsächlich benötigen, und erweitern Sie später falls nötig.
Darf ich ihr Autonomie über meine Textnachrichten geben und ist so sicher¶
Wir empfehlen nicht die volle Autonomie über deine persönlichen Nachrichten. Das sicherste Muster ist:
- Behalte DMs im Paarungsmodus oder einer engen Berechtigungsliste.
- Benutze eine separate Nummer oder Konto wenn du möchtest, dass es in deinem Namen angezeigt wird.
- Lass ihn entwerfen, dann vor dem Senden genehmigen.
Wenn Sie experimentieren möchten, machen Sie es auf einem dedizierten Konto und halten Sie es isoliert. Siehe Security.
Kann ich billigere Modelle für persönliche Assistentenaufgaben verwenden¶
Ja, if der Agent ist chat-only und die Eingabe wird vertraut. Kleinere Stufen sind anfälliger für Instruktionen, also vermeide sie für Tool-fähige Agenten oder beim Lesen nicht vertrauenswürdiger Inhalte. Wenn Sie ein kleineres Modell verwenden müssen, sperren Sie Werkzeuge und laufen innerhalb einer Sandbox. Siehe Security.
Ich habe im Telegramm startet, aber keinen Paarcode erhalten¶
Paarungscodes werden nur gesendet, wenn eine unbekannte Absendernachricht des Bots und
dmPolicy: "Paarung" aktiviert ist./start` generiert keinen Code.
Ausstehende Anfragen überprüfen:
openclaw pairing list telegram
Wenn du sofortigen Zugriff wünschst, kannst du deine Absender-ID erlauben oder setze dmPolicy: "open"
für dieses Konto.
WhatsApp wird meine Kontakte benachrichtigen, wie das Paaren funktioniert¶
Nein. Standard WhatsApp DM Richtlinie ist Paarung. Unbekannte Absender erhalten nur einen Paarcode und ihre Nachricht ist nicht verarbeitet. OpenClaw antwortet nur auf Chats, die es erhält, oder auf explizit sendet Sie Trigger.
Paarung genehmigen mit:
openclaw Paarung genehmigen Whatsapp <code>
Liste ausstehender Anfragen:
openclaw pairing list whatsapp
Eingabeaufforderung: Es wird benutzt um deine Erlaubnisliste/Eigentümer zu setzen, sodass deine eigenen DMs erlaubt sind. Es wird nicht für den automatischen Versand verwendet. Wenn du auf deiner persönlichen WhatsApp-Nummer startest, benutze diese Nummer und aktiviere channels.whatsapp.selfChatMode.
Chat-Befehle, Abbrechen von Aufgaben und "es wird nicht aufhören"¶
Wie verhindere ich, dass interne Systemmeldungen im Chat angezeigt werden¶
Die meisten internen oder Tool-Nachrichten erscheinen nur, wenn verbose oder reasoning für diese Sitzung aktiviert ist.
Fix im Chat, wo du ihn siehst:
/ausführlicher aus
/argumentieren aus
Wenn es immer noch laut ist, überprüfen Sie die Session-Einstellungen im Kontroll-UI und setzen Sie das Wort
auf inherit. Bestätige auch, dass du kein Bot-Profil verwendest, wenn verboseDefault in der Konfiguration
auf on gesetzt wurde.
Docs: Thinking and verbose, Security.
Wie kann ich eine laufende Aufgabe abbrechen¶
Sende eine dieser als Standalone-Nachricht (kein Schräg):
abbrechen
esc
warten
beenden
Unterbrechung
Dies sind Trigger (keine Schrägstrich Befehle).
Für Hintergrundprozesse (vom exec Tool) können Sie den Agent bitten zu starten:
prozessaktion:kill sessionId:XXX
Slash Befehle Übersicht: siehe Slash commands.
Die meisten Befehle müssen als standalone Nachricht gesendet werden, die mit / beginnt, aber ein paar Verknüpfungen (wie /status) funktionieren auch inline für erlaubte Absender.
Wie schicke ich eine Discord Nachricht von Telegram Crosscontext Nachrichten abgelehnt¶
OpenClaw blockiert standardmäßig Cross-Provider Messaging. Wenn ein Werkzeugaufruf mit an Telegramm gebunden ist, wird er nicht an Discord gesendet.
Anbieterübergreifende Nachrichten für den Agenten aktivieren:
{
Agenten: {
defaults: {
tools: {
message: {
crossContext: {
allowAcrossProviders: true,
Marker: { enabled: true Präfix: "[von {channel}] " },
},
},
},
},
},
}
Starten Sie das Gateway nach dem Bearbeiten der Konfiguration neu. Wenn du dies nur für einen einzigen
Agent möchtest, setze ihn stattdessen unter agents.list[].tools.message ein.
Warum fühlt es sich so an, als ob der Bot Nachrichten ignoriert¶
Warteschlangen-Modus steuert die Interaktion neuer Nachrichten mit einem Bordrun. Benutze /queue um Modi zu ändern:
steer- neue Nachrichten redirect die aktuelle Aufgabefollowup- Nachrichten ausführen eine zur Zeitcollect- batch messages and reply once (default)steer-backlog- Lenkung jetzt, verarbeite dann Backloginterrupt- Abbruch des aktuellen Auslaufs und Neustart
Du kannst Optionen wie debounce:2s cap:25 drop:summarize für Follow-up-Modi hinzufügen.
Beantworte die genaue Frage aus dem Screenshot/Chat-Log¶
F: "Was ist das Standardmodell für Anthropic mit einem API-Schlüssel?"
A: In OpenClaw sind Anmeldedaten und Modellauswahl getrennt. Das Setzen von ANTHROPIC_API_KEY (oder das Speichern eines Anthropischen API-Schlüssels in Authentifizierungsprofilen) aktiviert Authentifizierung, aber das eigentliche Standardmodell ist was du in agents konfigurierst. efaults.model.primary (z.B. anthropic/claude-sonnet-4-5 oder anthropic/claude-opus-4-6). Wenn Sie Keine Zugangsdaten für das Profil "anthropic:default" sehen, bedeutet dies, dass das Gateway keine Anthropischen Zugangsdaten in den erwartetenauth-Profilen finden konnte. son` für den Agenten, der läuft.
Immer noch festgefahren? Fragen Sie in Discord oder eröffnen Sie eine GitHub-Diskussion.