Community translations by veiseule.ai — Help improve them on Crowdin
Skip to main content

عمومی سوالات

حقیقی دنیا کے سیٹ اپس (local dev، VPS، multi-agent، OAuth/API keys، model failover) کے لیے فوری جوابات اور گہری ٹربل شوٹنگ۔ رن ٹائم ڈائیگناسٹکس کے لیے، Troubleshooting دیکھیں۔ مکمل کنفیگریشن ریفرنس کے لیے، Configuration دیکھیں۔

فہرستِ مضامین

49. ڈیمن + پورٹ اسٹیٹ

    1. سپروائزر رَن ٹائم بمقابلہ RPC رسائی، پروب ٹارگٹ URL، اور وہ کنفیگ دکھاتا ہے جو سروس نے غالباً استعمال کی۔

bash openclaw status

Fast local summary: OS + update, gateway/service reachability, agents/sessions, provider config + runtime issues (when gateway is reachable).

  1. Pasteable report (safe to share)

bash openclaw status --all

Read-only diagnosis with log tail (tokens redacted).

  1. Daemon + port state

bash openclaw gateway status

Shows supervisor runtime vs RPC reachability, the probe target URL, and which config the service likely used.

  1. Deep probes

bash openclaw status --deep

Runs gateway health checks + provider probes (requires a reachable gateway). See Health.

  1. Tail the latest log

bash openclaw logs --follow

If RPC is down, fall back to:

bash tail -f "$(ls -t /tmp/openclaw/openclaw-*.log | head -1)"

File logs are separate from service logs; see Logging and Troubleshooting.

  1. Run the doctor (repairs)

bash openclaw doctor

کنفیگ/اسٹیٹ کی مرمت یا مائیگریٹ کرتا ہے + ہیلتھ چیکس چلاتا ہے۔ See Doctor.

  1. Gateway snapshot

bash openclaw health --json openclaw health --verbose # shows the target URL + config path on errors

Asks the running gateway for a full snapshot (WS-only). See Health.

فوری آغاز اور پہلی بار سیٹ اپ

Im stuck whats the fastest way to get unstuck

Use a local AI agent that can see your machine. That is far more effective than asking in Discord, because most "I'm stuck" cases are local config or environment issues that remote helpers cannot inspect.

These tools can read the repo, run commands, inspect logs, and help fix your machine-level setup (PATH, services, permissions, auth files). Give them the full source checkout via the hackable (git) install:

curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git

This installs OpenClaw from a git checkout, so the agent can read the code + docs and reason about the exact version you are running. You can always switch back to stable later by re-running the installer without --install-method git.

Tip: ask the agent to plan and supervise the fix (step-by-step), then execute only the necessary commands. اس سے تبدیلیاں چھوٹی رہتی ہیں اور آڈٹ کرنا آسان ہو جاتا ہے۔

If you discover a real bug or fix, please file a GitHub issue or send a PR: https://github.com/openclaw/openclaw/issues https://github.com/openclaw/openclaw/pulls

Start with these commands (share outputs when asking for help):

openclaw status
openclaw models status
openclaw doctor

وہ کیا کرتے ہیں:

  • openclaw status: گیٹ وے/ایجنٹ کی صحت اور بنیادی کنفیگ کا فوری اسنیپ شاٹ۔
  • openclaw models status: checks provider auth + model availability.
  • openclaw doctor: validates and repairs common config/state issues.

Other useful CLI checks: openclaw status --all, openclaw logs --follow, openclaw gateway status, openclaw health --verbose.

Quick debug loop: First 60 seconds if something's broken. Install docs: Install, Installer flags, Updating.

The repo recommends running from source and using the onboarding wizard:

curl -fsSL https://openclaw.ai/install.sh | bash
openclaw onboard --install-daemon

The wizard can also build UI assets automatically. After onboarding, you typically run the Gateway on port 18789.

From source (contributors/dev):

git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install
pnpm build
pnpm ui:build # auto-installs UI deps on first run
openclaw onboard

If you don't have a global install yet, run it via pnpm openclaw onboard.

How do I open the dashboard after onboarding

آن بورڈنگ کے فوراً بعد وزارڈ آپ کے براؤزر کو ایک صاف (نان ٹوکنائزڈ) ڈیش بورڈ URL کے ساتھ کھولتا ہے اور خلاصے میں بھی لنک پرنٹ کرتا ہے۔ Keep that tab open; if it didn't launch, copy/paste the printed URL on the same machine.

How do I authenticate the dashboard token on localhost vs remote

Localhost (same machine):

  • Open http://127.0.0.1:18789/.
  • If it asks for auth, paste the token from gateway.auth.token (or OPENCLAW_GATEWAY_TOKEN) into Control UI settings.
  • Retrieve it from the gateway host: openclaw config get gateway.auth.token (or generate one: openclaw doctor --generate-gateway-token).

Not on localhost:

  • Tailscale Serve (recommended): keep bind loopback, run openclaw gateway --tailscale serve, open https://<magicdns>/. If gateway.auth.allowTailscale is true, identity headers satisfy auth (no token).
  • Tailnet bind: run openclaw gateway --bind tailnet --token "<token>", open http://<tailscale-ip>:18789/, paste token in dashboard settings.
  • SSH tunnel: ssh -N -L 18789:127.0.0.1:18789 user@host then open http://127.0.0.1:18789/ and paste the token in Control UI settings.

See Dashboard and Web surfaces for bind modes and auth details.

What runtime do I need

Node >= 22 is required. pnpm is recommended. Bun is not recommended for the Gateway.

Does it run on Raspberry Pi

ہاں. The Gateway is lightweight - docs list 512MB-1GB RAM, 1 core, and about 500MB disk as enough for personal use, and note that a Raspberry Pi 4 can run it.

اگر آپ کو اضافی گنجائش چاہیے (لاگز، میڈیا، دیگر سروسز)، تو 2GB تجویز کیا جاتا ہے، لیکن یہ کوئی سخت کم از کم حد نہیں ہے۔

Tip: a small Pi/VPS can host the Gateway, and you can pair nodes on your laptop/phone for local screen/camera/canvas or command execution. See Nodes.

Any tips for Raspberry Pi installs

مختصر ورژن: یہ کام کرتا ہے، لیکن کچھ کھردرے کناروں کی توقع رکھیں۔

  • Use a 64-bit OS and keep Node >= 22.
  • Prefer the hackable (git) install so you can see logs and update fast.
  • چینلز/اسکلز کے بغیر شروع کریں، پھر انہیں ایک ایک کر کے شامل کریں۔
  • If you hit weird binary issues, it is usually an ARM compatibility problem.

Docs: Linux, Install.

It is stuck on wake up my friend onboarding will not hatch What now

That screen depends on the Gateway being reachable and authenticated. The TUI also sends "Wake up, my friend!" automatically on first hatch. اگر آپ وہ لائن بغیر کسی جواب کے دیکھیں اور ٹوکنز 0 پر ہی رہیں، تو ایجنٹ کبھی چلا ہی نہیں۔

  1. Restart the Gateway:
openclaw gateway restart
  1. Check status + auth:
openclaw status
openclaw models status
openclaw logs --follow
  1. If it still hangs, run:
openclaw doctor

If the Gateway is remote, ensure the tunnel/Tailscale connection is up and that the UI is pointed at the right Gateway. دیکھیں Remote access۔

Can I migrate my setup to a new machine Mac mini without redoing onboarding

ہاں. Copy the state directory and workspace, then run Doctor once. This keeps your bot "exactly the same" (memory, session history, auth, and channel state) as long as you copy both locations:

  1. Install OpenClaw on the new machine.
  2. Copy $OPENCLAW_STATE_DIR (default: ~/.openclaw) from the old machine.
  3. Copy your workspace (default: ~/.openclaw/workspace).
  4. Run openclaw doctor and restart the Gateway service.

That preserves config, auth profiles, WhatsApp creds, sessions, and memory. If you're in remote mode, remember the gateway host owns the session store and workspace.

Important: if you only commit/push your workspace to GitHub, you're backing up memory + bootstrap files, but not session history or auth. Those live under ~/.openclaw/ (for example ~/.openclaw/agents/<agentId>/sessions/).

Related: Migrating, Where things live on disk, Agent workspace, Doctor, Remote mode.

Where do I see what is new in the latest version

Check the GitHub changelog: https://github.com/openclaw/openclaw/blob/main/CHANGELOG.md

Newest entries are at the top. If the top section is marked Unreleased, the next dated section is the latest shipped version. اندراجات کو Highlights، Changes اور Fixes کے تحت گروپ کیا جاتا ہے (ضرورت پڑنے پر docs/دیگر سیکشنز کے ساتھ)۔

میں docs.openclaw.ai تک رسائی حاصل نہیں کر سکتا، SSL ایرر آ رہا ہے۔ اب کیا کروں؟

کچھ Comcast/Xfinity کنیکشنز غلطی سے Xfinity Advanced Security کے ذریعے docs.openclaw.ai کو بلاک کر دیتے ہیں۔ اسے غیر فعال کریں یا docs.openclaw.ai کو allowlist کریں، پھر دوبارہ کوشش کریں۔ مزید تفصیل: Troubleshooting۔ براہِ کرم یہاں رپورٹ کر کے اسے اَن بلاک کرنے میں ہماری مدد کریں: https://spa.xfinity.com/check_url_status۔

اگر پھر بھی آپ سائٹ تک نہیں پہنچ پا رہے، تو docs GitHub پر mirrored ہیں: https://github.com/openclaw/openclaw/tree/main/docs

stable اور beta میں کیا فرق ہے؟

Stable اور beta الگ کوڈ لائنیں نہیں بلکہ npm dist-tags ہیں:

  • latest = stable
  • beta = ٹیسٹنگ کے لیے ابتدائی build

ہم builds کو beta پر ship کرتے ہیں، انہیں ٹیسٹ کرتے ہیں، اور جب کوئی build مضبوط ہو جائے تو اسی ورژن کو latest پر promote کر دیتے ہیں۔ اسی لیے beta اور stable ایک ہی ورژن کی طرف اشارہ کر سکتے ہیں۔

دیکھیں کیا بدلا: https://github.com/openclaw/openclaw/blob/main/CHANGELOG.md

میں beta ورژن کیسے انسٹال کروں اور beta اور dev میں کیا فرق ہے؟

Beta npm dist-tag beta ہے (ممکن ہے latest سے میچ کرے)۔ Dev main (git) کی moving head ہے؛ جب publish ہوتی ہے تو npm dist-tag dev استعمال کرتی ہے۔

One-liners (macOS/Linux):

curl -fsSL --proto '=https' --tlsv1.2 https://openclaw.ai/install.sh | bash -s -- --beta
curl -fsSL --proto '=https' --tlsv1.2 https://openclaw.ai/install.sh | bash -s -- --install-method git

Windows installer (PowerShell): https://openclaw.ai/install.ps1

مزید تفصیل: Development channels اور Installer flags۔

انسٹال اور onboarding میں عام طور پر کتنا وقت لگتا ہے؟

تقریبی رہنمائی:

  • Install: 2–5 منٹ
  • Onboarding: 5–15 منٹ، اس بات پر منحصر کہ آپ کتنے چینلز/ماڈلز کنفیگر کرتے ہیں

اگر یہ اٹک جائے تو Installer stuck اور Im stuck میں دیا گیا تیز debug لوپ استعمال کریں۔

میں تازہ ترین bits کیسے آزماؤں؟

دو آپشنز:

  1. Dev channel (git checkout):
openclaw update --channel dev

یہ main برانچ پر سوئچ کرتا ہے اور سورس سے اپڈیٹ کرتا ہے۔

  1. Hackable install (installer سائٹ سے):
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git

اس سے آپ کو ایک local repo ملتا ہے جسے آپ ایڈٹ کر سکتے ہیں، پھر git کے ذریعے اپڈیٹ کریں۔

اگر آپ دستی طور پر ایک صاف clone پسند کرتے ہیں تو استعمال کریں:

git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install
pnpm build

Docs: Update، Development channels، Install۔

Installer اٹک گیا ہے۔ مجھے مزید feedback کیسے ملے؟

verbose output کے ساتھ انسٹالر دوبارہ چلائیں:

curl -fsSL https://openclaw.ai/install.sh | bash -s -- --verbose

verbose کے ساتھ Beta install:

curl -fsSL https://openclaw.ai/install.sh | bash -s -- --beta --verbose

hackable (git) install کے لیے:

curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git --verbose

مزید آپشنز: Installer flags۔

Windows install میں git not found یا openclaw not recognized دکھاتا ہے

Windows کے دو عام مسائل:

1) npm error spawn git / git not found

  • Git for Windows انسٹال کریں اور یقینی بنائیں کہ git آپ کے PATH میں موجود ہو۔
  • PowerShell بند کریں اور دوبارہ کھولیں، پھر انسٹالر دوبارہ چلائیں۔

2) انسٹال کے بعد openclaw پہچانا نہیں جا رہا

  • آپ کا npm گلوبل bin فولڈر PATH میں شامل نہیں ہے۔

  • پاتھ چیک کریں:

powershell npm config get prefix

  • یقینی بنائیں کہ <prefix>\\bin PATH میں موجود ہے (زیادہ تر سسٹمز پر یہ %AppData%\\npm ہوتا ہے)۔

  • PATH اپڈیٹ کرنے کے بعد PowerShell بند کریں اور دوبارہ کھولیں۔

اگر آپ سب سے ہموار Windows سیٹ اپ چاہتے ہیں تو نیٹو Windows کے بجائے WSL2 استعمال کریں۔ Docs: Windows.

ڈاکس نے میرے سوال کا جواب نہیں دیا، میں بہتر جواب کیسے حاصل کروں؟

hackable (git) install استعمال کریں تاکہ آپ کے پاس مکمل سورس اور ڈاکس لوکل ہوں، پھر اپنے بوٹ (یا Claude/Codex) سے اسی فولڈر سے سوال کریں تاکہ وہ ریپو پڑھ کر درست جواب دے سکے۔

curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git

مزید تفصیل: Install اور Installer flags.

میں Linux پر OpenClaw کیسے انسٹال کروں؟

مختصر جواب: Linux گائیڈ فالو کریں، پھر آن بورڈنگ ویزرڈ چلائیں۔

میں VPS پر OpenClaw کیسے انسٹال کروں؟

کوئی بھی Linux VPS کام کرے گا۔ سرور پر انسٹال کریں، پھر Gateway تک پہنچنے کے لیے SSH/Tailscale استعمال کریں۔

گائیڈز: exe.dev, Hetzner, Fly.io. ریموٹ رسائی: Gateway remote.

cloudVPS انسٹال گائیڈز کہاں ہیں؟

ہم عام فراہم کنندگان کے ساتھ ایک hosting hub رکھتے ہیں۔ ایک منتخب کریں اور گائیڈ فالو کریں:

کلاؤڈ میں یہ کیسے کام کرتا ہے: Gateway سرور پر چلتا ہے، اور آپ اپنے لیپ ٹاپ/فون سے Control UI (یا Tailscale/SSH) کے ذریعے اس تک رسائی حاصل کرتے ہیں۔ آپ کی اسٹیٹ اور ورک اسپیس سرور پر رہتی ہے، اس لیے ہوسٹ کو سورس آف ٹروتھ سمجھیں اور اس کا بیک اپ رکھیں۔

آپ اس کلاؤڈ Gateway کے ساتھ nodes (Mac/iOS/Android/headless) پیئر کر سکتے ہیں تاکہ لوکل اسکرین/کیمرا/کینوس تک رسائی حاصل ہو یا اپنے لیپ ٹاپ پر کمانڈز چلائیں، جبکہ Gateway کلاؤڈ میں ہی رہے۔

Hub: Platforms. ریموٹ رسائی: Gateway remote. Nodes: Nodes, Nodes CLI.

کیا میں OpenClaw سے خود کو اپڈیٹ کرنے کو کہہ سکتا ہوں؟

مختصر جواب: ممکن ہے، لیکن تجویز نہیں کیا جاتا۔ اپڈیٹ فلو Gateway کو ری اسٹارٹ کر سکتا ہے (جس سے فعال سیشن ختم ہو جاتا ہے)، صاف git checkout کی ضرورت پڑ سکتی ہے، اور تصدیق کے لیے پرامپٹ آ سکتا ہے۔ زیادہ محفوظ طریقہ: آپریٹر کے طور پر شیل سے اپڈیٹس چلائیں۔

CLI استعمال کریں:

openclaw update
openclaw update status
openclaw update --channel stable|beta|dev
openclaw update --tag <dist-tag|version>
openclaw update --no-restart

اگر آپ کو لازمی طور پر کسی ایجنٹ سے آٹومیٹ کرنا ہو:

openclaw update --yes --no-restart
openclaw gateway restart

Docs: Update, Updating.

آن بورڈنگ ویزرڈ اصل میں کیا کرتا ہے؟

openclaw onboard تجویز کردہ سیٹ اپ راستہ ہے۔ لوکل موڈ میں یہ آپ کو درج ذیل مراحل سے گزارتا ہے:

  • ماڈل/آتھنٹیکیشن سیٹ اپ (Claude سبسکرپشنز کے لیے Anthropic setup-token تجویز کیا جاتا ہے، OpenAI Codex OAuth سپورٹڈ ہے، API keys اختیاری ہیں، LM Studio کے لوکل ماڈلز سپورٹڈ ہیں)
  • ورک اسپیس لوکیشن + بوٹ اسٹرَیپ فائلز
  • Gateway سیٹنگز (bind/port/auth/tailscale)
  • Providers (WhatsApp, Telegram, Discord, Mattermost (plugin), Signal, iMessage)
  • Daemon install (LaunchAgent on macOS; systemd user unit on Linux/WSL2)
  • Health checks and skills selection

It also warns if your configured model is unknown or missing auth.

Do I need a Claude or OpenAI subscription to run this

نہیں. You can run OpenClaw with API keys (Anthropic/OpenAI/others) or with local-only models so your data stays on your device. Subscriptions (Claude Pro/Max or OpenAI Codex) are optional ways to authenticate those providers.

Docs: Anthropic, OpenAI, Local models, Models.

Can I use Claude Max subscription without an API key

ہاں. You can authenticate with a setup-token instead of an API key. This is the subscription path.

Claude Pro/Max subscriptions do not include an API key, so this is the correct approach for subscription accounts. Important: you must verify with Anthropic that this usage is allowed under their subscription policy and terms. If you want the most explicit, supported path, use an Anthropic API key.

How does Anthropic setuptoken auth work

claude setup-token generates a token string via the Claude Code CLI (it is not available in the web console). You can run it on any machine. Choose Anthropic token (paste setup-token) in the wizard or paste it with openclaw models auth paste-token --provider anthropic. The token is stored as an auth profile for the anthropic provider and used like an API key (no auto-refresh). More detail: OAuth.

Where do I find an Anthropic setuptoken

It is not in the Anthropic Console. The setup-token is generated by the Claude Code CLI on any machine:

claude setup-token

Copy the token it prints, then choose Anthropic token (paste setup-token) in the wizard. If you want to run it on the gateway host, use openclaw models auth setup-token --provider anthropic. If you ran claude setup-token elsewhere, paste it on the gateway host with openclaw models auth paste-token --provider anthropic. See Anthropic.

Do you support Claude subscription auth (Claude Pro or Max)

Yes - via setup-token. OpenClaw no longer reuses Claude Code CLI OAuth tokens; use a setup-token or an Anthropic API key. Generate the token anywhere and paste it on the gateway host. See Anthropic and OAuth.

Note: Claude subscription access is governed by Anthropic's terms. For production or multi-user workloads, API keys are usually the safer choice.

Why am I seeing HTTP 429 ratelimiterror from Anthropic

That means your Anthropic quota/rate limit is exhausted for the current window. If you use a Claude subscription (setup-token or Claude Code OAuth), wait for the window to reset or upgrade your plan. If you use an Anthropic API key, check the Anthropic Console for usage/billing and raise limits as needed.

Tip: set a fallback model so OpenClaw can keep replying while a provider is rate-limited. See Models and OAuth.

Is AWS Bedrock supported

Yes - via pi-ai's Amazon Bedrock (Converse) provider with manual config. You must supply AWS credentials/region on the gateway host and add a Bedrock provider entry in your models config. See Amazon Bedrock and Model providers. If you prefer a managed key flow, an OpenAI-compatible proxy in front of Bedrock is still a valid option.

How does Codex auth work

OpenClaw supports OpenAI Code (Codex) via OAuth (ChatGPT sign-in). The wizard can run the OAuth flow and will set the default model to openai-codex/gpt-5.3-codex when appropriate. See Model providers and Wizard.

Do you support OpenAI subscription auth Codex OAuth

ہاں. 1. OpenClaw OpenAI Code (Codex) subscription OAuth کو مکمل طور پر سپورٹ کرتا ہے۔ 2. آن بورڈنگ وزرڈ آپ کے لیے OAuth فلو چلا سکتا ہے۔

  1. دیکھیں OAuth، Model providers، اور Wizard۔

4. میں Gemini CLI OAuth کیسے سیٹ اپ کروں

  1. Gemini CLI plugin auth flow استعمال کرتا ہے، openclaw.json میں client id یا secret نہیں۔

  2. مراحل:

    1. پلگ ان فعال کریں: openclaw plugins enable google-gemini-cli-auth
  3. لاگ اِن: openclaw models auth login --provider google-gemini-cli --set-default

8) یہ گیٹ وے ہوسٹ پر auth profiles میں OAuth ٹوکنز محفوظ کرتا ہے۔ 9. تفصیلات: Model providers۔

10. کیا casual چیٹس کے لیے لوکل ماڈل ٹھیک ہے

  1. عام طور پر نہیں۔ 12. OpenClaw کو بڑا context اور مضبوط safety درکار ہوتی ہے؛ چھوٹے کارڈز truncate کرتے ہیں اور لیک کرتے ہیں۔ 13. اگر لازمی ہو تو لوکلی سب سے بڑا MiniMax M2.1 build چلائیں (LM Studio) اور دیکھیں /gateway/local-models۔ 14. چھوٹے/quantized ماڈلز prompt‑injection کے خطرے کو بڑھاتے ہیں - دیکھیں Security۔

15. میں hosted ماڈل ٹریفک کو کسی مخصوص ریجن میں کیسے رکھوں

  1. region‑pinned endpoints منتخب کریں۔ 17. OpenRouter MiniMax، Kimi، اور GLM کے لیے US‑hosted آپشنز فراہم کرتا ہے؛ ڈیٹا کو ریجن میں رکھنے کے لیے US‑hosted variant منتخب کریں۔ 18. آپ models.mode: "merge" استعمال کر کے Anthropic/OpenAI کو بھی ان کے ساتھ لسٹ کر سکتے ہیں تاکہ fallbacks دستیاب رہیں جبکہ آپ منتخب کردہ regioned provider کی پابندی بھی ہو۔

19. کیا مجھے یہ انسٹال کرنے کے لیے Mac Mini خریدنا ہوگا

نہیں. 20. OpenClaw macOS یا Linux پر چلتا ہے (Windows پر WSL2 کے ذریعے)۔ 21. Mac mini اختیاری ہے - کچھ لوگ ہمیشہ آن ہوسٹ کے طور پر ایک خریدتے ہیں، لیکن ایک چھوٹا VPS، ہوم سرور، یا Raspberry Pi‑class باکس بھی کام کرتا ہے۔

آپ کو صرف macOS-صرف ٹولز کے لیے ہی Mac کی ضرورت ہوتی ہے۔ iMessage کے لیے BlueBubbles استعمال کریں (تجویز کردہ) — BlueBubbles سرور کسی بھی Mac پر چلتا ہے، اور گیٹ وے Linux یا کہیں اور چل سکتا ہے۔ 24. اگر آپ کو دیگر macOS‑only ٹولز چاہئیں تو Gateway کو Mac پر چلائیں یا macOS node جوڑیں۔

  1. Docs: BlueBubbles، Nodes، Mac remote mode۔

26. کیا iMessage سپورٹ کے لیے مجھے Mac mini درکار ہے

  1. آپ کو Messages میں سائن اِن کیا ہوا کوئی macOS ڈیوائس درکار ہے۔ 28. یہ ضروری نہیں کہ Mac mini ہو - کوئی بھی Mac کام کرتا ہے۔ 29. iMessage کے لیے BlueBubbles استعمال کریں (تجویز کردہ) - BlueBubbles سرور macOS پر چلتا ہے، جبکہ Gateway Linux یا کہیں اور چل سکتا ہے۔

  2. عام سیٹ اپس:

    1. Gateway کو Linux/VPS پر چلائیں، اور BlueBubbles سرور کو کسی بھی ایسے Mac پر چلائیں جو Messages میں سائن اِن ہو۔
    1. اگر آپ سب سے سادہ single‑machine سیٹ اپ چاہتے ہیں تو سب کچھ Mac پر چلائیں۔
  1. Docs: BlueBubbles، Nodes، Mac remote mode۔

34. اگر میں OpenClaw چلانے کے لیے Mac mini خریدوں تو کیا میں اسے اپنے MacBook Pro سے کنیکٹ کر سکتا ہوں

ہاں. 35. Mac mini Gateway چلا سکتا ہے، اور آپ کا MacBook Pro node (companion device) کے طور پر کنیکٹ ہو سکتا ہے۔ 36. Nodes Gateway نہیں چلاتے - وہ اضافی صلاحیتیں فراہم کرتے ہیں جیسے screen/camera/canvas اور اس ڈیوائس پر system.run۔

عام پیٹرن:

  • Mac mini پر گیٹ وے (ہمیشہ آن)۔
    1. MacBook Pro macOS ایپ یا node host چلاتا ہے اور Gateway کے ساتھ pair کرتا ہے۔
    1. اسے دیکھنے کے لیے openclaw nodes status / openclaw nodes list استعمال کریں۔

دستاویزات: Nodes، Nodes CLI.

41. کیا میں Bun استعمال کر سکتا ہوں

  1. Bun تجویز نہیں کیا جاتا۔ 43. ہمیں runtime bugs نظر آتے ہیں، خاص طور پر WhatsApp اور Telegram کے ساتھ۔
  2. مستحکم gateways کے لیے Node استعمال کریں۔

  3. اگر پھر بھی آپ Bun کے ساتھ تجربہ کرنا چاہتے ہیں تو اسے non‑production gateway پر کریں بغیر WhatsApp/Telegram کے۔

46. Telegram میں allowFrom میں کیا جاتا ہے

  1. channels.telegram.allowFrom انسانی بھیجنے والے کا Telegram user ID ہوتا ہے (numeric، تجویز کردہ) یا @username۔ 48. یہ bot username نہیں ہوتا۔

محفوظ (بغیر تھرڈ پارٹی بوٹ):

    1. اپنے bot کو DM کریں، پھر openclaw logs --follow چلائیں اور from.id پڑھیں۔
  1. Official Bot API:
  • DM your bot, then call https://api.telegram.org/bot<bot_token>/getUpdates and read message.from.id.

تھرڈ پارٹی (کم پرائیویٹ):

  • DM @userinfobot or @getidsbot.

See /channels/telegram.

کیا متعدد لوگ مختلف OpenClaw انسٹینسز کے ساتھ ایک ہی WhatsApp نمبر استعمال کر سکتے ہیں

Yes, via multi-agent routing. Bind each sender's WhatsApp DM (peer kind: "direct", sender E.164 like +15551234567) to a different agentId, so each person gets their own workspace and session store. Replies still come from the same WhatsApp account, and DM access control (channels.whatsapp.dmPolicy / channels.whatsapp.allowFrom) is global per WhatsApp account. See Multi-Agent Routing and WhatsApp.

Can I run a fast chat agent and an Opus for coding agent

ہاں. ملٹی-ایجنٹ روٹنگ استعمال کریں: ہر ایجنٹ کو اس کا اپنا ڈیفالٹ ماڈل دیں، پھر ان باؤنڈ روٹس (پرووائیڈر اکاؤنٹ یا مخصوص پیئرز) کو ہر ایجنٹ سے بائنڈ کریں۔ Example config lives in Multi-Agent Routing. See also Models and Configuration.

Does Homebrew work on Linux

ہاں. Homebrew supports Linux (Linuxbrew). Quick setup:

/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
echo 'eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv)"' >> ~/.profile
eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv)"
brew install <formula>

If you run OpenClaw via systemd, ensure the service PATH includes /home/linuxbrew/.linuxbrew/bin (or your brew prefix) so brew-installed tools resolve in non-login shells. Recent builds also prepend common user bin dirs on Linux systemd services (for example ~/.local/bin, ~/.npm-global/bin, ~/.local/share/pnpm, ~/.bun/bin) and honor PNPM_HOME, NPM_CONFIG_PREFIX, BUN_INSTALL, VOLTA_HOME, ASDF_DATA_DIR, NVM_DIR, and FNM_DIR when set.

What's the difference between the hackable git install and npm install

  • Hackable (git) install: full source checkout, editable, best for contributors. You run builds locally and can patch code/docs.
  • npm install: global CLI install, no repo, best for "just run it." Updates come from npm dist-tags.

Docs: Getting started, Updating.

Can I switch between npm and git installs later

ہاں. Install the other flavor, then run Doctor so the gateway service points at the new entrypoint. یہ آپ کا ڈیٹا ڈیلیٹ نہیں کرتا — یہ صرف OpenClaw کے کوڈ انسٹال کو تبدیل کرتا ہے۔ Your state (~/.openclaw) and workspace (~/.openclaw/workspace) stay untouched.

From npm → git:

git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install
pnpm build
openclaw doctor
openclaw gateway restart

From git → npm:

npm install -g openclaw@latest
openclaw doctor
openclaw gateway restart

Doctor detects a gateway service entrypoint mismatch and offers to rewrite the service config to match the current install (use --repair in automation).

Backup tips: see Backup strategy.

Should I run the Gateway on my laptop or a VPS

Short answer: if you want 24/7 reliability, use a VPS. If you want the lowest friction and you're okay with sleep/restarts, run it locally.

Laptop (local Gateway)

  • فوائد: کوئی سرور لاگت نہیں، لوکل فائلز تک براہِ راست رسائی، لائیو براؤزر ونڈو۔
  • Cons: sleep/network drops = disconnects, OS updates/reboots interrupt, must stay awake.

VPS / cloud

  • Pros: always-on, stable network, no laptop sleep issues, easier to keep running.
  • Cons: often run headless (use screenshots), remote file access only, you must SSH for updates.

OpenClaw-specific note: WhatsApp/Telegram/Slack/Mattermost (plugin)/Discord all work fine from a VPS. The only real trade-off is headless browser vs a visible window. See Browser.

Recommended default: VPS if you had gateway disconnects before. Local is great when you're actively using the Mac and want local file access or UI automation with a visible browser.

How important is it to run OpenClaw on a dedicated machine

Not required, but recommended for reliability and isolation.

  • Dedicated host (VPS/Mac mini/Pi): always-on, fewer sleep/reboot interruptions, cleaner permissions, easier to keep running.
  • Shared laptop/desktop: totally fine for testing and active use, but expect pauses when the machine sleeps or updates.

If you want the best of both worlds, keep the Gateway on a dedicated host and pair your laptop as a node for local screen/camera/exec tools. See Nodes. For security guidance, read Security.

OpenClaw is lightweight. For a basic Gateway + one chat channel:

  • Absolute minimum: 1 vCPU, 1GB RAM, ~500MB disk.
  • Recommended: 1-2 vCPU, 2GB RAM or more for headroom (logs, media, multiple channels). Node tools and browser automation can be resource hungry.

OS: use Ubuntu LTS (or any modern Debian/Ubuntu). The Linux install path is best tested there.

Docs: Linux, VPS hosting.

Can I run OpenClaw in a VM and what are the requirements

ہاں. Treat a VM the same as a VPS: it needs to be always on, reachable, and have enough RAM for the Gateway and any channels you enable.

بنیادی رہنمائی:

  • بالکل کم از کم: 1 vCPU، 1GB RAM۔
  • Recommended: 2GB RAM or more if you run multiple channels, browser automation, or media tools.
  • OS: Ubuntu LTS or another modern Debian/Ubuntu.

If you are on Windows, WSL2 is the easiest VM style setup and has the best tooling compatibility. See Windows, VPS hosting. If you are running macOS in a VM, see macOS VM.

What is OpenClaw?

What is OpenClaw in one paragraph

OpenClaw is a personal AI assistant you run on your own devices. It replies on the messaging surfaces you already use (WhatsApp, Telegram, Slack, Mattermost (plugin), Discord, Google Chat, Signal, iMessage, WebChat) and can also do voice + a live Canvas on supported platforms. گیٹ وے ہمیشہ آن کنٹرول پلین ہے؛ اسسٹنٹ ہی پروڈکٹ ہے۔

What's the value proposition

OpenClaw is not "just a Claude wrapper." It's a local-first control plane that lets you run a capable assistant on your own hardware, reachable from the chat apps you already use, with stateful sessions, memory, and tools - without handing control of your workflows to a hosted SaaS.

نمایاں نکات:

  • Your devices, your data: run the Gateway wherever you want (Mac, Linux, VPS) and keep the workspace + session history local.
  • Real channels, not a web sandbox: WhatsApp/Telegram/Slack/Discord/Signal/iMessage/etc, plus mobile voice and Canvas on supported platforms.
  • Model-agnostic: use Anthropic, OpenAI, MiniMax, OpenRouter, etc., with per-agent routing and failover.
  • Local-only option: run local models so all data can stay on your device if you want.
  • Multi-agent routing: separate agents per channel, account, or task, each with its own workspace and defaults.
  • Open source and hackable: inspect, extend, and self-host without vendor lock-in.

Docs: Gateway, Channels, Multi-agent, Memory.

I just set it up what should I do first

Good first projects:

  • Build a website (WordPress, Shopify, or a simple static site).
  • Prototype a mobile app (outline, screens, API plan).
  • Organize files and folders (cleanup, naming, tagging).
  • Connect Gmail and automate summaries or follow ups.

It can handle large tasks, but it works best when you split them into phases and use sub agents for parallel work.

What are the top five everyday use cases for OpenClaw

Everyday wins usually look like:

  • Personal briefings: summaries of inbox, calendar, and news you care about.
  • Research and drafting: quick research, summaries, and first drafts for emails or docs.
  • Reminders and follow ups: cron or heartbeat driven nudges and checklists.
  • Browser automation: filling forms, collecting data, and repeating web tasks.
  • Cross device coordination: send a task from your phone, let the Gateway run it on a server, and get the result back in chat.

کیا OpenClaw ایک SaaS کے لیے لیڈ جن آؤٹ ریچ اشتہارات اور بلاگز میں مدد کر سکتا ہے

ہاں، تحقیق، کوالیفیکیشن، اور ڈرافٹنگ کے لیے۔ یہ سائٹس اسکین کر سکتا ہے، شارٹ لسٹس بنا سکتا ہے، ممکنہ کلائنٹس کا خلاصہ کر سکتا ہے، اور آؤٹ ریچ یا اشتہاری کاپی کے ڈرافٹس لکھ سکتا ہے۔

آؤٹ ریچ یا اشتہاری مہمات کے لیے، انسان کو عمل میں شامل رکھیں۔ اسپام سے بچیں، مقامی قوانین اور پلیٹ فارم پالیسیوں کی پیروی کریں، اور بھیجنے سے پہلے ہر چیز کا جائزہ لیں۔ سب سے محفوظ طریقہ یہ ہے کہ OpenClaw ڈرافٹ تیار کرے اور آپ منظوری دیں۔

Docs: Security.

ویب ڈویلپمنٹ کے لیے Claude Code کے مقابلے میں کیا فوائد ہیں

OpenClaw ایک ذاتی معاون اور کوآرڈینیشن لیئر ہے، IDE کا متبادل نہیں۔ تیز ترین براہِ راست کوڈنگ لوپ کے لیے ریپو کے اندر Claude Code یا Codex استعمال کریں۔ جب آپ کو پائیدار میموری، کراس ڈیوائس رسائی، اور ٹول آرکسٹریشن درکار ہو تو OpenClaw استعمال کریں۔

فوائد:

  • سیشنز کے درمیان مستقل میموری + ورک اسپیس
  • ملٹی پلیٹ فارم رسائی (WhatsApp، Telegram، TUI، WebChat)
  • ٹول آرکسٹریشن (براؤزر، فائلیں، شیڈولنگ، ہکس)
  • ہمیشہ فعال گیٹ وے (VPS پر چلائیں، کہیں سے بھی تعامل کریں)
  • نوڈز مقامی براؤزر/اسکرین/کیمرہ/ایگزیک کے لیے

شوکیس: https://openclaw.ai/showcase

اسکلز اور آٹومیشن

میں ریپو کو گندا کیے بغیر اسکلز کو کس طرح کسٹمائز کروں

ریپو کی کاپی میں ترمیم کرنے کے بجائے منیجڈ اووررائیڈز استعمال کریں۔ اپنی تبدیلیاں ~/.openclaw/skills/<name>/SKILL.md میں رکھیں (یا ~/.openclaw/openclaw.json میں skills.load.extraDirs کے ذریعے ایک فولڈر شامل کریں)۔ ترجیحی ترتیب <workspace>/skills > ~/.openclaw/skills > بنڈلڈ ہے، لہٰذا منیجڈ اووررائیڈز گِٹ کو چھیڑے بغیر غالب رہتے ہیں۔ صرف وہی ترامیم جو اپ اسٹریم کے قابل ہوں ریپو میں ہونی چاہئیں اور PRs کی صورت میں بھیجی جائیں۔

کیا میں کسی کسٹم فولڈر سے اسکلز لوڈ کر سکتا ہوں

ہاں. ~/.openclaw/openclaw.json میں skills.load.extraDirs کے ذریعے اضافی ڈائریکٹریز شامل کریں (سب سے کم ترجیح)۔ ڈیفالٹ ترجیحی ترتیب یہی رہتی ہے: <workspace>/skills~/.openclaw/skills → بنڈلڈ → skills.load.extraDirs۔ clawhub ڈیفالٹ طور پر ./skills میں انسٹال کرتا ہے، جسے OpenClaw <workspace>/skills کے طور پر سمجھتا ہے۔

میں مختلف کاموں کے لیے مختلف ماڈلز کیسے استعمال کر سکتا ہوں

آج سپورٹڈ پیٹرنز یہ ہیں:

  • کرون جابز: الگ تھلگ جابز ہر جاب کے لیے model اووررائیڈ سیٹ کر سکتی ہیں۔
  • سب ایجنٹس: کاموں کو مختلف ڈیفالٹ ماڈلز والے الگ ایجنٹس کی طرف روٹ کریں۔
  • آن ڈیمانڈ سوئچ: موجودہ سیشن کا ماڈل کسی بھی وقت بدلنے کے لیے /model استعمال کریں۔

Cron jobs، Multi-Agent Routing، اور Slash commands دیکھیں۔

بھاری کام کے دوران بوٹ فریز ہو جاتا ہے، میں اسے کیسے آف لوڈ کروں

طویل یا متوازی کاموں کے لیے سب ایجنٹس استعمال کریں۔ سب ایجنٹس اپنی الگ سیشن میں چلتے ہیں، خلاصہ واپس کرتے ہیں، اور آپ کی مین چیٹ کو ریسپانسیو رکھتے ہیں۔

اپنے بوٹ سے کہیں "اس کام کے لیے ایک سب ایجنٹ اسپان کریں" یا /subagents استعمال کریں۔ چیٹ میں /status استعمال کریں تاکہ دیکھ سکیں کہ گیٹ وے اس وقت کیا کر رہا ہے (اور آیا وہ مصروف ہے یا نہیں)۔

ٹوکن ٹِپ: طویل کام اور سب ایجنٹس دونوں ٹوکن استعمال کرتے ہیں۔ اگر لاگت تشویش کا باعث ہو تو، agents.defaults.subagents.model کے ذریعے سب ایجنٹس کے لیے سستا ماڈل سیٹ کریں۔

Docs: Sub-agents.

کرون یا ریمائنڈرز فائر نہیں ہو رہے، مجھے کیا چیک کرنا چاہیے

کرون گیٹ وے پروسیس کے اندر چلتا ہے۔ اگر گیٹ وے مسلسل نہیں چل رہا، تو شیڈیولڈ جابز نہیں چلیں گی۔

چیک لسٹ:

  • یقینی بنائیں کہ کرون فعال ہے (cron.enabled) اور OPENCLAW_SKIP_CRON سیٹ نہیں ہے۔
  • چیک کریں کہ گیٹ وے 24/7 چل رہا ہے (کوئی سلیپ/ری اسٹارٹس نہیں)۔
  • جاب کے لیے ٹائم زون سیٹنگز کی تصدیق کریں (--tz بمقابلہ ہوسٹ ٹائم زون)۔

ڈی بگ:

openclaw cron run <jobId> --force
openclaw cron runs --id <jobId> --limit 50

Docs: Cron jobs, Cron vs Heartbeat.

How do I install skills on Linux

Use ClawHub (CLI) or drop skills into your workspace. The macOS Skills UI isn't available on Linux. Browse skills at https://clawhub.com.

Install the ClawHub CLI (pick one package manager):

npm i -g clawhub
pnpm add -g clawhub

Can OpenClaw run tasks on a schedule or continuously in the background

ہاں. Use the Gateway scheduler:

  • Cron jobs for scheduled or recurring tasks (persist across restarts).
  • Heartbeat for "main session" periodic checks.
  • Isolated jobs for autonomous agents that post summaries or deliver to chats.

Docs: Cron jobs, Cron vs Heartbeat, Heartbeat.

Can I run Apple macOS-only skills from Linux?

Not directly. macOS skills are gated by metadata.openclaw.os plus required binaries, and skills only appear in the system prompt when they are eligible on the Gateway host. On Linux, darwin-only skills (like apple-notes, apple-reminders, things-mac) will not load unless you override the gating.

You have three supported patterns:

آپشن A - گیٹ وے کو Mac پر چلائیں (سب سے آسان). macOS بائنریز جہاں موجود ہوں وہاں گیٹ وے چلائیں، پھر Linux سے remote mode میں یا Tailscale کے ذریعے کنیکٹ کریں۔ The skills load normally because the Gateway host is macOS.

Option B - use a macOS node (no SSH). Run the Gateway on Linux, pair a macOS node (menubar app), and set Node Run Commands to "Always Ask" or "Always Allow" on the Mac. جب مطلوبہ بائنریز نوڈ پر موجود ہوں تو OpenClaw macOS-صرف اسکلز کو اہل سمجھ سکتا ہے۔ The agent runs those skills via the nodes tool. If you choose "Always Ask", approving "Always Allow" in the prompt adds that command to the allowlist.

Option C - proxy macOS binaries over SSH (advanced). Keep the Gateway on Linux, but make the required CLI binaries resolve to SSH wrappers that run on a Mac. پھر اسکل کو اوور رائیڈ کریں تاکہ Linux کی اجازت مل جائے اور وہ اہل رہے۔

  1. بائنری کے لیے ایک SSH ریپر بنائیں (مثال: Apple Notes کے لیے memo):

bash #!/usr/bin/env bash set -euo pipefail exec ssh -T user@mac-host /opt/homebrew/bin/memo "$@"

  1. Linux ہوسٹ پر ریپر کو PATH میں رکھیں (مثلاً ~/bin/memo

  2. Override the skill metadata (workspace or ~/.openclaw/skills) to allow Linux:

```markdown


name: apple-notes description: Manage Apple Notes via the memo CLI on macOS. metadata: { "openclaw": { "os": ["darwin", "linux"], "requires": { "bins": ["memo"] } } }


```

  1. Start a new session so the skills snapshot refreshes.

Do you have a Notion or HeyGen integration

Not built-in today.

Options:

  • Custom skill / plugin: best for reliable API access (Notion/HeyGen both have APIs).
  • براؤزر آٹومیشن: بغیر کوڈ کے کام کرتی ہے لیکن سست اور زیادہ نازک ہوتی ہے۔

اگر آپ فی کلائنٹ کانٹیکسٹ رکھنا چاہتے ہیں (ایجنسی ورک فلو)، تو ایک سادہ پیٹرن یہ ہے:

  • One Notion page per client (context + preferences + active work).
  • Ask the agent to fetch that page at the start of a session.

If you want a native integration, open a feature request or build a skill targeting those APIs.

Install skills:

clawhub install <skill-slug>
clawhub update --all

ClawHub installs into ./skills under your current directory (or falls back to your configured OpenClaw workspace); OpenClaw treats that as <workspace>/skills on the next session. For shared skills across agents, place them in ~/.openclaw/skills/<name>/SKILL.md. Some skills expect binaries installed via Homebrew; on Linux that means Linuxbrew (see the Homebrew Linux FAQ entry above). See Skills and ClawHub.

How do I install the Chrome extension for browser takeover

Use the built-in installer, then load the unpacked extension in Chrome:

openclaw browser extension install
openclaw browser extension path

Then Chrome → chrome://extensions → enable "Developer mode" → "Load unpacked" → pick that folder.

Full guide (including remote Gateway + security notes): Chrome extension

If the Gateway runs on the same machine as Chrome (default setup), you usually do not need anything extra. اگر Gateway کہیں اور چل رہا ہو، تو براؤزر مشین پر node host چلائیں تاکہ Gateway براؤزر ایکشنز کو پروکسی کر سکے۔ You still need to click the extension button on the tab you want to control (it doesn't auto-attach).

Sandboxing and memory

Is there a dedicated sandboxing doc

ہاں. See Sandboxing. For Docker-specific setup (full gateway in Docker or sandbox images), see Docker.

Docker feels limited How do I enable full features

The default image is security-first and runs as the node user, so it does not include system packages, Homebrew, or bundled browsers. For a fuller setup:

  • Persist /home/node with OPENCLAW_HOME_VOLUME so caches survive.
  • Bake system deps into the image with OPENCLAW_DOCKER_APT_PACKAGES.
  • Install Playwright browsers via the bundled CLI: node /app/node_modules/playwright-core/cli.js install chromium
  • Set PLAYWRIGHT_BROWSERS_PATH and ensure the path is persisted.

Docs: Docker, Browser.

Can I keep DMs personal but make groups public sandboxed with one agent

Yes - if your private traffic is DMs and your public traffic is groups.

Use agents.defaults.sandbox.mode: "non-main" so group/channel sessions (non-main keys) run in Docker, while the main DM session stays on-host. Then restrict what tools are available in sandboxed sessions via tools.sandbox.tools.

Setup walkthrough + example config: Groups: personal DMs + public groups

Key config reference: Gateway configuration

How do I bind a host folder into the sandbox

Set agents.defaults.sandbox.docker.binds to ["host:path:mode"] (e.g., "/home/user/src:/src:ro"). Global + per-agent binds merge; per-agent binds are ignored when scope: "shared". Use :ro for anything sensitive and remember binds bypass the sandbox filesystem walls. See Sandboxing and Sandbox vs Tool Policy vs Elevated for examples and safety notes.

How does memory work

OpenClaw memory is just Markdown files in the agent workspace:

  • Daily notes in memory/YYYY-MM-DD.md
  • Curated long-term notes in MEMORY.md (main/private sessions only)

OpenClaw also runs a silent pre-compaction memory flush to remind the model to write durable notes before auto-compaction. This only runs when the workspace is writable (read-only sandboxes skip it). دیکھیں Memory۔

Memory keeps forgetting things How do I make it stick

Ask the bot to write the fact to memory. Long-term notes belong in MEMORY.md, short-term context goes into memory/YYYY-MM-DD.md.

This is still an area we are improving. It helps to remind the model to store memories; it will know what to do. If it keeps forgetting, verify the Gateway is using the same workspace on every run.

Docs: Memory, Agent workspace.

Does semantic memory search require an OpenAI API key

Only if you use OpenAI embeddings. Codex OAuth covers chat/completions and does not grant embeddings access, so signing in with Codex (OAuth or the Codex CLI login) does not help for semantic memory search. OpenAI embeddings still need a real API key (OPENAI_API_KEY or models.providers.openai.apiKey).

If you don't set a provider explicitly, OpenClaw auto-selects a provider when it can resolve an API key (auth profiles, models.providers.*.apiKey, or env vars). It prefers OpenAI if an OpenAI key resolves, otherwise Gemini if a Gemini key resolves. If neither key is available, memory search stays disabled until you configure it. If you have a local model path configured and present, OpenClaw prefers local.

If you'd rather stay local, set memorySearch.provider = "local" (and optionally memorySearch.fallback = "none"). If you want Gemini embeddings, set memorySearch.provider = "gemini" and provide GEMINI_API_KEY (or memorySearch.remote.apiKey). We support OpenAI, Gemini, or local embedding models - see Memory for the setup details.

Does memory persist forever What are the limits

Memory files live on disk and persist until you delete them. حد آپ کی اسٹوریج ہے، ماڈل نہیں۔ سیشن کانٹیکسٹ اب بھی ماڈل کے کانٹیکسٹ ونڈو کے ذریعے محدود ہے، اس لیے طویل گفتگو کمپیکٹ یا مختصر ہو سکتی ہے۔ اسی لیے میموری سرچ موجود ہے — یہ صرف متعلقہ حصوں کو دوبارہ کانٹیکسٹ میں لاتی ہے۔

دستاویزات: Memory، Context۔

ڈسک پر چیزیں کہاں رہتی ہیں

کیا OpenClaw کے ساتھ استعمال ہونے والا تمام ڈیٹا مقامی طور پر محفوظ ہوتا ہے

نہیں — OpenClaw کی اسٹیٹ مقامی ہوتی ہے، لیکن بیرونی سروسز اب بھی وہی دیکھتی ہیں جو آپ انہیں بھیجتے ہیں۔

  • ڈیفالٹ طور پر مقامی: سیشنز، میموری فائلز، کنفگ، اور ورک اسپیس گیٹ وے ہوسٹ پر رہتے ہیں (~/.openclaw + آپ کی ورک اسپیس ڈائریکٹری)۔
  • ضرورت کے تحت ریموٹ: وہ پیغامات جو آپ ماڈل پرووائیڈرز (Anthropic/OpenAI/etc.) کو بھیجتے ہیں جاتے ہیں ان کے APIs پر، اور چیٹ پلیٹ فارمز (WhatsApp/Telegram/Slack/etc.) پیغام کا ڈیٹا اپنے سرورز پر محفوظ کرتے ہیں۔
  • آپ فُٹ پرنٹ کنٹرول کرتے ہیں: لوکل ماڈلز استعمال کرنے سے پرامپٹس آپ کی مشین پر رہتے ہیں، لیکن چینل ٹریفک پھر بھی چینل کے سرورز سے گزرتی ہے۔

متعلقہ: Agent workspace، Memory۔

OpenClaw اپنا ڈیٹا کہاں محفوظ کرتا ہے

سب کچھ $OPENCLAW_STATE_DIR کے تحت رہتا ہے (ڈیفالٹ: ~/.openclaw):

پاتھ Purpose
$OPENCLAW_STATE_DIR/openclaw.json مین کنفیگ (JSON5)
$OPENCLAW_STATE_DIR/credentials/oauth.json لیگیسی OAuth امپورٹ (پہلے استعمال پر auth پروفائلز میں کاپی کیا جاتا ہے)
$OPENCLAW_STATE_DIR/agents/<agentId>/agent/auth-profiles.json Auth پروفائلز (OAuth + API keys)
$OPENCLAW_STATE_DIR/agents/<agentId>/agent/auth.json رن ٹائم auth کیشے (خودکار طور پر منیج ہوتی ہے)
$OPENCLAW_STATE_DIR/credentials/ پرووائیڈر اسٹیٹ (مثلاً whatsapp/<accountId>/creds.json)
$OPENCLAW_STATE_DIR/agents/ فی ایجنٹ اسٹیٹ (agentDir + sessions)
$OPENCLAW_STATE_DIR/agents/<agentId>/sessions/ گفتگو کی ہسٹری اور اسٹیٹ (فی ایجنٹ)
$OPENCLAW_STATE_DIR/agents/<agentId>/sessions/sessions.json سیشن میٹا ڈیٹا (فی ایجنٹ)

لیگیسی سنگل ایجنٹ پاتھ: ~/.openclaw/agent/* (openclaw doctor کے ذریعے مائیگریٹ کیا جاتا ہے)۔

آپ کی ورک اسپیس (AGENTS.md، میموری فائلز، اسکلز، وغیرہ) ~/.openclaw سے الگ ہے اور agents.defaults.workspace کے ذریعے کنفیگر ہوتی ہے (ڈیفالٹ: ~/.openclaw/workspace

AGENTSmd، SOULmd، USERmd، MEMORYmd کہاں ہونے چاہئیں

یہ فائلیں ایجنٹ ورک اسپیس میں ہوتی ہیں، ~/.openclaw میں نہیں۔

  • ورک اسپیس (فی ایجنٹ): AGENTS.md، SOUL.md، IDENTITY.md، USER.md, MEMORY.md (یا memory.mdmemory/YYYY-MM-DD.md، اختیاری HEARTBEAT.md۔
  • اسٹیٹ ڈائریکٹری (~/.openclaw): کنفگ، اسناد، auth پروفائلز، سیشنز، لاگز، اور مشترکہ اسکلز (~/.openclaw/skills

ڈیفالٹ ورک اسپیس ~/.openclaw/workspace ہے، جسے یہاں سے کنفیگر کیا جا سکتا ہے:

{
  agents: { defaults: { workspace: "~/.openclaw/workspace" } },
}

اگر بوٹ ری اسٹارٹ کے بعد "بھول" جائے، تو تصدیق کریں کہ گیٹ وے ہر لانچ پر ایک ہی ورک اسپیس استعمال کر رہا ہے (اور یاد رکھیں: ریموٹ موڈ گیٹ وے ہوسٹ کی ورک اسپیس استعمال کرتا ہے، آپ کے مقامی لیپ ٹاپ کی نہیں)۔

ٹِپ: اگر آپ پائیدار رویہ یا ترجیح چاہتے ہیں، تو بوٹ سے کہیں کہ وہ اسے AGENTS.md یا MEMORY.md میں لکھ دے بجائے چیٹ ہسٹری پر انحصار کرنے کے۔

Agent workspace اور Memory دیکھیں۔

بیک اپ کی تجویز کردہ حکمتِ عملی کیا ہے

اپنی ایجنٹ ورک اسپیس کو ایک پرائیویٹ git ریپو میں رکھیں اور اسے کسی پرائیویٹ جگہ پر بیک اپ کریں (مثلاً GitHub پرائیویٹ)۔ یہ میموری + AGENTS/SOUL/USER فائلز کو محفوظ کرتا ہے، اور بعد میں اسسٹنٹ کے "ذہن" کو بحال کرنے دیتا ہے۔

~/.openclaw کے تحت کسی بھی چیز کو commit نہ کریں (اسناد، سیشنز، ٹوکنز)۔ اگر آپ کو مکمل بحالی درکار ہو، تو ورک اسپیس اور اسٹیٹ ڈائریکٹری دونوں کا الگ الگ بیک اپ لیں (اوپر مائیگریشن والے سوال کو دیکھیں)۔

دستاویزات: Agent workspace۔

میں OpenClaw کو مکمل طور پر کیسے ان انسٹال کروں

مخصوص گائیڈ دیکھیں: Uninstall۔

کیا ایجنٹس ورک اسپیس کے باہر کام کر سکتے ہیں

ہاں. The workspace is the default cwd and memory anchor, not a hard sandbox. Relative paths resolve inside the workspace, but absolute paths can access other host locations unless sandboxing is enabled. If you need isolation, use agents.defaults.sandbox or per-agent sandbox settings. If you want a repo to be the default working directory, point that agent's workspace to the repo root. The OpenClaw repo is just source code; keep the workspace separate unless you intentionally want the agent to work inside it.

Example (repo as default cwd):

{
  agents: {
    defaults: {
      workspace: "~/Projects/my-repo",
    },
  },
}

Im in remote mode where is the session store

Session state is owned by the gateway host. If you're in remote mode, the session store you care about is on the remote machine, not your local laptop. See Session management.

Config basics

What format is the config Where is it

OpenClaw reads an optional JSON5 config from $OPENCLAW_CONFIG_PATH (default: ~/.openclaw/openclaw.json):

$OPENCLAW_CONFIG_PATH

If the file is missing, it uses safe-ish defaults (including a default workspace of ~/.openclaw/workspace).

I set gatewaybind lan or tailnet and now nothing listens the UI says unauthorized

Non-loopback binds require auth. Configure gateway.auth.mode + gateway.auth.token (or use OPENCLAW_GATEWAY_TOKEN).

{
  gateway: {
    bind: "lan",
    auth: {
      mode: "token",
      token: "replace-me",
    },
  },
}

Notes:

  • gateway.remote.token is for remote CLI calls only; it does not enable local gateway auth.
  • The Control UI authenticates via connect.params.auth.token (stored in app/UI settings). Avoid putting tokens in URLs.

Why do I need a token on localhost now

The wizard generates a gateway token by default (even on loopback) so local WS clients must authenticate. This blocks other local processes from calling the Gateway. Paste the token into the Control UI settings (or your client config) to connect.

If you really want open loopback, remove gateway.auth from your config. Doctor can generate a token for you any time: openclaw doctor --generate-gateway-token.

Do I have to restart after changing config

The Gateway watches the config and supports hot-reload:

  • gateway.reload.mode: "hybrid" (default): hot-apply safe changes, restart for critical ones
  • hot, restart, off are also supported

How do I enable web search and web fetch

web_fetch works without an API key. web_search requires a Brave Search API key. Recommended: run openclaw configure --section web to store it in tools.web.search.apiKey. Environment alternative: set BRAVE_API_KEY for the Gateway process.

{
  tools: {
    web: {
      search: {
        enabled: true,
        apiKey: "BRAVE_API_KEY_HERE",
        maxResults: 5,
      },
      fetch: {
        enabled: true,
      },
    },
  },
}

نوٹس:

  • If you use allowlists, add web_search/web_fetch or group:web.
  • web_fetch بطورِ طے شدہ فعال ہے (جب تک صراحتاً غیرفعال نہ کیا جائے)۔
  • Daemons read env vars from ~/.openclaw/.env (or the service environment).

Docs: Web tools.

How do I run a central Gateway with specialized workers across devices

The common pattern is one Gateway (e.g. Raspberry Pi) plus nodes and agents:

  • Gateway (central): owns channels (Signal/WhatsApp), routing, and sessions.
  • Nodes (devices): Macs/iOS/Android connect as peripherals and expose local tools (system.run, canvas, camera).
  • Agents (workers): separate brains/workspaces for special roles (e.g. "Hetzner ops", "Personal data").
  • Sub-agents: spawn background work from a main agent when you want parallelism.
  • TUI: connect to the Gateway and switch agents/sessions.

Docs: Nodes, Remote access, Multi-Agent Routing, Sub-agents, TUI.

Can the OpenClaw browser run headless

ہاں. It's a config option:

{
  browser: { headless: true },
  agents: {
    defaults: {
      sandbox: { browser: { headless: true } },
    },
  },
}

ڈیفالٹ false ہے (ہیڈفل)۔ Headless is more likely to trigger anti-bot checks on some sites. See Browser.

Headless uses the same Chromium engine and works for most automation (forms, clicks, scraping, logins). The main differences:

  • No visible browser window (use screenshots if you need visuals).
  • Some sites are stricter about automation in headless mode (CAPTCHAs, anti-bot). For example, X/Twitter often blocks headless sessions.

How do I use Brave for browser control

Set browser.executablePath to your Brave binary (or any Chromium-based browser) and restart the Gateway. See the full config examples in Browser.

Remote gateways and nodes

How do commands propagate between Telegram the gateway and nodes

Telegram messages are handled by the gateway. The gateway runs the agent and only then calls nodes over the Gateway WebSocket when a node tool is needed:

Telegram → Gateway → Agent → node.* → Node → Gateway → Telegram

Nodes don't see inbound provider traffic; they only receive node RPC calls.

How can my agent access my computer if the Gateway is hosted remotely

Short answer: pair your computer as a node. The Gateway runs elsewhere, but it can call node.* tools (screen, camera, system) on your local machine over the Gateway WebSocket.

Typical setup:

  1. Run the Gateway on the always-on host (VPS/home server).
  2. Put the Gateway host + your computer on the same tailnet.
  3. Ensure the Gateway WS is reachable (tailnet bind or SSH tunnel).
  4. Open the macOS app locally and connect in Remote over SSH mode (or direct tailnet) so it can register as a node.
  5. Approve the node on the Gateway:

bash openclaw nodes pending openclaw nodes approve <requestId>

No separate TCP bridge is required; nodes connect over the Gateway WebSocket.

Security reminder: pairing a macOS node allows system.run on that machine. Only pair devices you trust, and review Security.

Docs: Nodes, Gateway protocol, macOS remote mode, Security.

Tailscale is connected but I get no replies What now

Check the basics:

  • Gateway is running: openclaw gateway status
  • Gateway health: openclaw status
  • Channel health: openclaw channels status

Then verify auth and routing:

  • If you use Tailscale Serve, make sure gateway.auth.allowTailscale is set correctly.
  • If you connect via SSH tunnel, confirm the local tunnel is up and points at the right port.
  • Confirm your allowlists (DM or group) include your account.

Docs: Tailscale, Remote access, Channels.

Can two OpenClaw instances talk to each other local VPS

ہاں. There is no built-in "bot-to-bot" bridge, but you can wire it up in a few reliable ways:

Simplest: use a normal chat channel both bots can access (Telegram/Slack/WhatsApp). Have Bot A send a message to Bot B, then let Bot B reply as usual.

CLI bridge (generic): run a script that calls the other Gateway with openclaw agent --message ... --deliver, targeting a chat where the other bot listens. If one bot is on a remote VPS, point your CLI at that remote Gateway via SSH/Tailscale (see Remote access).

  1. مثال پیٹرن (ایسی مشین سے چلائیں جو ہدف گیٹ وے تک رسائی رکھتی ہو):
openclaw agent --message "Hello from local bot" --deliver --channel telegram --reply-to <chat-id>
  1. ٹِپ: ایک گارڈریل شامل کریں تاکہ دونوں بوٹس لامتناہی لوپ میں نہ پھنسیں (صرف-ذکر، چینل allowlists، یا "بوٹ پیغامات کا جواب نہ دیں" کا اصول)۔

  2. دستاویزات: Remote access, Agent CLI, Agent send.

5. کیا مجھے متعدد ایجنٹس کے لیے الگ الگ VPS درکار ہیں

نہیں. 6. ایک ہی گیٹ وے متعدد ایجنٹس کی میزبانی کر سکتا ہے، ہر ایک کے لیے الگ ورک اسپیس، ماڈل ڈیفالٹس، اور روٹنگ کے ساتھ۔ 7. یہی عام سیٹ اپ ہے اور یہ ہر ایجنٹ کے لیے ایک VPS چلانے کے مقابلے میں کہیں سستا اور سادہ ہے۔

  1. الگ VPSes صرف تب استعمال کریں جب آپ کو سخت آئسولیشن (سیکیورٹی حدود) یا بہت مختلف کنفیگریشنز درکار ہوں جنہیں آپ شیئر نہیں کرنا چاہتے۔ 9. بصورت دیگر، ایک ہی گیٹ وے رکھیں اور متعدد ایجنٹس یا سب-ایجنٹس استعمال کریں۔

10. کیا VPS سے SSH کرنے کے بجائے اپنے ذاتی لیپ ٹاپ پر نوڈ استعمال کرنے کا کوئی فائدہ ہے

  1. جی ہاں — نوڈز ریموٹ گیٹ وے سے آپ کے لیپ ٹاپ تک پہنچنے کا فرسٹ-کلاس طریقہ ہیں، اور وہ صرف شیل رسائی سے کہیں زیادہ صلاحیتیں فراہم کرتے ہیں۔ 12. گیٹ وے macOS/Linux پر چلتا ہے (Windows بذریعہ WSL2) اور ہلکا پھلکا ہے (ایک چھوٹا VPS یا Raspberry Pi-کلاس باکس کافی ہے؛ 4 GB RAM وافر ہے)، اس لیے عام سیٹ اپ ایک ہمیشہ آن ہوسٹ کے ساتھ آپ کا لیپ ٹاپ بطور نوڈ ہوتا ہے۔
    1. ان باؤنڈ SSH کی ضرورت نہیں۔ نوڈز گیٹ وے WebSocket سے آؤٹ باؤنڈ کنیکٹ کرتے ہیں اور ڈیوائس پیئرنگ استعمال کرتے ہیں۔
    1. زیادہ محفوظ ایکزیکیوشن کنٹرولز۔ system.run اس لیپ ٹاپ پر نوڈ allowlists/منظوریوں کے ذریعے محدود ہوتا ہے۔
    1. مزید ڈیوائس ٹولز۔ نوڈز system.run کے علاوہ canvas, camera, اور screen بھی فراہم کرتے ہیں۔
    1. لوکل براؤزر آٹومیشن۔ گیٹ وے کو VPS پر رکھیں، لیکن Chrome کو لوکل چلائیں اور Chrome ایکسٹینشن + لیپ ٹاپ پر نوڈ ہوسٹ کے ذریعے کنٹرول ریلے کریں۔
  1. عارضی شیل رسائی کے لیے SSH ٹھیک ہے، لیکن جاری ایجنٹ ورک فلو اور ڈیوائس آٹومیشن کے لیے نوڈز زیادہ سادہ ہیں۔

  2. دستاویزات: Nodes, Nodes CLI, Chrome extension.

19. کیا مجھے دوسرے لیپ ٹاپ پر انسٹال کرنا چاہیے یا صرف ایک نوڈ شامل کرنا چاہیے

  1. اگر آپ کو دوسرے لیپ ٹاپ پر صرف لوکل ٹولز (screen/camera/exec) درکار ہیں تو اسے بطور نوڈ شامل کریں۔ 21. اس سے ایک ہی گیٹ وے برقرار رہتا ہے اور ڈپلیکیٹ کنفیگریشن سے بچاؤ ہوتا ہے۔ 22. لوکل نوڈ ٹولز فی الحال صرف macOS تک محدود ہیں، لیکن ہم انہیں دیگر OSes تک بڑھانے کا منصوبہ رکھتے ہیں۔

  2. دوسرا گیٹ وے صرف تب انسٹال کریں جب آپ کو سخت آئسولیشن یا دو مکمل طور پر الگ بوٹس درکار ہوں۔

  3. دستاویزات: Nodes, Nodes CLI, Multiple gateways.

25. کیا نوڈز گیٹ وے سروس چلاتے ہیں

نہیں. 26. فی ہوسٹ صرف ایک گیٹ وے چلنا چاہیے، جب تک کہ آپ جان بوجھ کر آئسولیٹڈ پروفائلز نہ چلا رہے ہوں (دیکھیں Multiple gateways)۔ 27. نوڈز پیری فیرلز ہوتے ہیں جو گیٹ وے سے کنیکٹ ہوتے ہیں (iOS/Android نوڈز، یا macOS میں مینو بار ایپ کا "node mode")۔ 28. ہیڈ لیس نوڈ ہوسٹس اور CLI کنٹرول کے لیے، دیکھیں Node host CLI.

  1. gateway, discovery, اور canvasHost میں تبدیلیوں کے لیے مکمل ری اسٹارٹ درکار ہوتا ہے۔

30. کیا کنفیگ لاگو کرنے کے لیے کوئی API RPC طریقہ موجود ہے

ہاں. 31. config.apply مکمل کنفیگ کی توثیق + تحریر کرتا ہے اور آپریشن کے حصے کے طور پر گیٹ وے کو ری اسٹارٹ کرتا ہے۔

configapply نے میری کنفیگ مٹا دی — میں اسے کیسے بحال کروں اور اس سے کیسے بچوں

  1. config.apply پوری کنفیگ کو بدل دیتا ہے۔ 34. اگر آپ جزوی آبجیکٹ بھیجیں تو باقی سب کچھ ہٹا دیا جاتا ہے۔

  2. بحالی:

  • بیک اپ سے بحال کریں (git یا کاپی کی گئی ~/.openclaw/openclaw.json
    1. اگر آپ کے پاس بیک اپ نہیں ہے تو openclaw doctor دوبارہ چلائیں اور چینلز/ماڈلز دوبارہ کنفیگر کریں۔
    1. اگر یہ غیر متوقع تھا تو بگ رپورٹ فائل کریں اور اپنی آخری معلوم کنفیگ یا کوئی بھی بیک اپ شامل کریں۔
    1. ایک لوکل کوڈنگ ایجنٹ اکثر لاگز یا ہسٹری سے ایک قابلِ عمل کنفیگ دوبارہ تشکیل دے سکتا ہے۔
  1. اس سے بچاؤ:
    1. چھوٹی تبدیلیوں کے لیے openclaw config set استعمال کریں۔
    1. انٹرایکٹو ترامیم کے لیے openclaw configure استعمال کریں۔
  1. دستاویزات: Config, Configure, Doctor.

44. پہلی انسٹالیشن کے لیے کم از کم معقول کنفیگ کیا ہے

{
  agents: { defaults: { workspace: "~/.openclaw/workspace" } },
  channels: { whatsapp: { allowFrom: ["+15555550123"] } },
}
  1. یہ آپ کا ورک اسپیس سیٹ کرتا ہے اور یہ محدود کرتا ہے کہ کون بوٹ کو ٹرگر کر سکتا ہے۔

46. میں VPS پر Tailscale کیسے سیٹ اپ کروں اور اپنے Mac سے کنیکٹ کیسے کروں

  1. کم سے کم مراحل:

    1. VPS پر انسٹال + لاگ اِن کریں

bash 49. curl -fsSL https://tailscale.com/install.sh | sh sudo tailscale up

    1. اپنے Mac پر انسٹال + لاگ اِن کریں - 2. MagicDNS فعال کریں (تجویز کردہ)
    1. Tailscale ایڈمن کنسول میں MagicDNS فعال کریں تاکہ VPS کا ایک مستحکم نام ہو۔ - 4. tailnet hostname استعمال کریں
    1. SSH: ssh user@your-vps.tailnet-xxxx.ts.net - 6. Gateway WS: ws://your-vps.tailnet-xxxx.ts.net:18789 - Gateway WS: ws://your-vps.tailnet-xxxx.ts.net:18789

8) اس سے گیٹ وے loopback سے بندھا رہتا ہے اور Tailscale کے ذریعے HTTPS ایکسپوز ہوتا ہے۔

openclaw gateway --tailscale serve
  1. دیکھیں Tailscale. 10. میں Mac نوڈ کو ریموٹ Gateway Tailscale Serve سے کیسے جوڑوں

11. Serve Gateway Control UI + WS کو ایکسپوز کرتا ہے۔

  1. نوڈز اسی Gateway WS اینڈپوائنٹ کے ذریعے کنیکٹ ہوتے ہیں۔ 13. تجویز کردہ سیٹ اپ:

  2. یقینی بنائیں کہ VPS اور Mac ایک ہی tailnet پر ہیں۔

    1. macOS ایپ کو Remote موڈ میں استعمال کریں (SSH ٹارگٹ tailnet hostname ہو سکتا ہے)۔
    1. ایپ Gateway پورٹ کو ٹنل کرے گی اور ایک نوڈ کے طور پر کنیکٹ ہوگی۔
  3. گیٹ وے پر نوڈ کی منظوری دیں:
    1. ڈاکس: Gateway protocol, Discovery, macOS remote mode.

bash openclaw nodes pending openclaw nodes approve <requestId>

19) Env vars اور .env لوڈنگ

20. OpenClaw ماحول کی متغیرات کیسے لوڈ کرتا ہے

21. OpenClaw والدین پروسیس (shell، launchd/systemd، CI، وغیرہ) سے env vars پڑھتا ہے

  1. اور اضافی طور پر لوڈ کرتا ہے: 23. موجودہ ورکنگ ڈائریکٹری سے .env
  • موجودہ ورکنگ ڈائریکٹری سے .env
    1. دونوں .env فائلیں موجودہ env vars کو اووررائیڈ نہیں کرتیں۔
  1. آپ کنفیگ میں inline env vars بھی ڈیفائن کر سکتے ہیں (صرف اس صورت میں لاگو ہوں گی جب پروسیس env میں موجود نہ ہوں):

  2. { env: { OPENROUTER_API_KEY: "sk-or-...", vars: { GROQ_API_KEY: "gsk-..." }, }, }

28. مکمل ترجیح اور سورسز کے لیے دیکھیں [/environment](/help/environment).
  1. میں نے سروس کے ذریعے Gateway شروع کیا اور میرے env vars غائب ہو گئے۔ اب کیا کروں

30. دو عام حل:

  1. گمشدہ کیز ~/.openclaw/.env میں رکھیں تاکہ سروس کے آپ کے shell env کو inherit نہ کرنے کی صورت میں بھی وہ لوڈ ہو جائیں۔

    1. shell امپورٹ فعال کریں (اختیاری سہولت):
    1. یہ آپ کا لاگ اِن shell چلاتا ہے اور صرف وہی متوقع کیز امپورٹ کرتا ہے جو غائب ہوں (کبھی اووررائیڈ نہیں کرتا)۔
{
  env: {
    shellEnv: {
      enabled: true,
      timeoutMs: 15000,
    },
  },
}
  1. Env var متبادلات: OPENCLAW_LOAD_SHELL_ENV=1, OPENCLAW_SHELL_ENV_TIMEOUT_MS=15000. 35. میں نے COPILOTGITHUBTOKEN سیٹ کیا ہے لیکن models status میں Shell env off کیوں دکھا رہا ہے

36. openclaw models status رپورٹ کرتا ہے کہ آیا shell env import فعال ہے یا نہیں۔

  1. "Shell env: off" اس کا مطلب یہ نہیں کہ آپ کے env vars موجود نہیں — اس کا مطلب صرف یہ ہے کہ OpenClaw خودکار طور پر آپ کا لاگ اِن shell لوڈ نہیں کرے گا۔ 38. اگر Gateway سروس کے طور پر چل رہا ہو (launchd/systemd)، تو یہ آپ کے shell environment کو inherit نہیں کرے گا۔

  2. ان میں سے کوئی ایک کر کے مسئلہ حل کریں: 40. ٹوکن ~/.openclaw/.env میں رکھیں:

    1. COPILOT_GITHUB_TOKEN=...

42. یا shell امپورٹ فعال کریں (`env.shellEnv.enabled: true`)۔

    1. یا اسے اپنی کنفیگ کے env بلاک میں شامل کریں (صرف اس صورت میں لاگو ہوگا جب غائب ہو)۔
    1. پھر گیٹ وے کو ری اسٹارٹ کریں اور دوبارہ چیک کریں:

45) Copilot ٹوکنز COPILOT_GITHUB_TOKEN سے پڑھے جاتے ہیں (نیز GH_TOKEN / GITHUB_TOKEN

openclaw models status
  1. دیکھیں /concepts/model-providers اور /environment.
  2. سیشنز اور متعدد چیٹس

48. میں ایک نیا مکالمہ کیسے شروع کروں

میں ایک نئی گفتگو کیسے شروع کروں

  1. دیکھیں Session management. See Session management.

Do sessions reset automatically if I never send new

ہاں. Sessions expire after session.idleMinutes (default 60). The next message starts a fresh session id for that chat key. This does not delete transcripts - it just starts a new session.

{
  session: {
    idleMinutes: 240,
  },
}

Is there a way to make a team of OpenClaw instances one CEO and many agents

Yes, via multi-agent routing and sub-agents. You can create one coordinator agent and several worker agents with their own workspaces and models.

That said, this is best seen as a fun experiment. It is token heavy and often less efficient than using one bot with separate sessions. The typical model we envision is one bot you talk to, with different sessions for parallel work. That bot can also spawn sub-agents when needed.

Docs: Multi-agent routing, Sub-agents, Agents CLI.

Why did context get truncated midtask How do I prevent it

Session context is limited by the model window. Long chats, large tool outputs, or many files can trigger compaction or truncation.

What helps:

  • Ask the bot to summarize the current state and write it to a file.
  • Use /compact before long tasks, and /new when switching topics.
  • Keep important context in the workspace and ask the bot to read it back.
  • طویل یا متوازی کام کے لیے سب-ایجنٹس استعمال کریں تاکہ مین چیٹ چھوٹی رہے۔
  • Pick a model with a larger context window if this happens often.

میں OpenClaw کو مکمل طور پر کیسے ری سیٹ کروں لیکن انسٹال رکھا جائے

Use the reset command:

openclaw reset

Non-interactive full reset:

openclaw reset --scope full --yes --non-interactive

Then re-run onboarding:

openclaw onboard --install-daemon

Notes:

  • The onboarding wizard also offers Reset if it sees an existing config. See Wizard.
  • If you used profiles (--profile / OPENCLAW_PROFILE), reset each state dir (defaults are ~/.openclaw-<profile>).
  • Dev reset: openclaw gateway --dev --reset (dev-only; wipes dev config + credentials + sessions + workspace).

Im getting context too large errors how do I reset or compact

ان میں سے ایک استعمال کریں:

  • Compact (keeps the conversation but summarizes older turns):

/compact

or /compact <instructions> to guide the summary.

  • Reset (fresh session ID for the same chat key):

/new /reset

If it keeps happening:

  • Enable or tune session pruning (agents.defaults.contextPruning) to trim old tool output.
  • Use a model with a larger context window.

Docs: Compaction, Session pruning, Session management.

Why am I seeing LLM request rejected messagesNcontentXtooluseinput Field required

This is a provider validation error: the model emitted a tool_use block without the required input. It usually means the session history is stale or corrupted (often after long threads or a tool/schema change).

Fix: start a fresh session with /new (standalone message).

Why am I getting heartbeat messages every 30 minutes

Heartbeats run every 30m by default. Tune or disable them:

{
  agents: {
    defaults: {
      heartbeat: {
        every: "2h", // or "0m" to disable
      },
    },
  },
}

If HEARTBEAT.md exists but is effectively empty (only blank lines and markdown headers like # Heading), OpenClaw skips the heartbeat run to save API calls. اگر فائل غائب ہو تو ہارٹ بیٹ پھر بھی چلتا ہے اور ماڈل فیصلہ کرتا ہے کہ کیا کرنا ہے۔

Per-agent overrides use agents.list[].heartbeat. Docs: Heartbeat.

Do I need to add a bot account to a WhatsApp group

نہیں. OpenClaw runs on your own account, so if you're in the group, OpenClaw can see it. By default, group replies are blocked until you allow senders (groupPolicy: "allowlist").

If you want only you to be able to trigger group replies:

{
  channels: {
    whatsapp: {
      groupPolicy: "allowlist",
      groupAllowFrom: ["+15551234567"],
    },
  },
}

How do I get the JID of a WhatsApp group

Option 1 (fastest): tail logs and send a test message in the group:

openclaw logs --follow --json

Look for chatId (or from) ending in @g.us, like: 1234567890-1234567890@g.us.

Option 2 (if already configured/allowlisted): list groups from config:

openclaw directory groups list --channel whatsapp

Docs: WhatsApp, Directory, Logs.

Why doesnt OpenClaw reply in a group

Two common causes:

  • Mention gating is on (default). You must @mention the bot (or match mentionPatterns).
  • You configured channels.whatsapp.groups without "*" and the group isn't allowlisted.

See Groups and Group messages.

Do groupsthreads share context with DMs

Direct chats collapse to the main session by default. Groups/channels have their own session keys, and Telegram topics / Discord threads are separate sessions. See Groups and Group messages.

How many workspaces and agents can I create

No hard limits. Dozens (even hundreds) are fine, but watch for:

  • Disk growth: sessions + transcripts live under ~/.openclaw/agents/<agentId>/sessions/.
  • Token cost: more agents means more concurrent model usage.
  • Ops overhead: per-agent auth profiles, workspaces, and channel routing.

مشورے:

  • Keep one active workspace per agent (agents.defaults.workspace).
  • Prune old sessions (delete JSONL or store entries) if disk grows.
  • Use openclaw doctor to spot stray workspaces and profile mismatches.

Can I run multiple bots or chats at the same time Slack and how should I set that up

ہاں. Use Multi-Agent Routing to run multiple isolated agents and route inbound messages by channel/account/peer. Slack is supported as a channel and can be bound to specific agents.

Browser access is powerful but not "do anything a human can" - anti-bot, CAPTCHAs, and MFA can still block automation. For the most reliable browser control, use the Chrome extension relay on the machine that runs the browser (and keep the Gateway anywhere).

Best-practice setup:

  • Always-on Gateway host (VPS/Mac mini).
  • One agent per role (bindings).
  • Slack channel(s) bound to those agents.
  • Local browser via extension relay (or a node) when needed.

Docs: Multi-Agent Routing, Slack, Browser, Chrome extension, Nodes.

Models: defaults, selection, aliases, switching

What is the default model

OpenClaw's default model is whatever you set as:

agents.defaults.model.primary

Models are referenced as provider/model (example: anthropic/claude-opus-4-6). If you omit the provider, OpenClaw currently assumes anthropic as a temporary deprecation fallback - but you should still explicitly set provider/model.

What model do you recommend

تجویز کردہ ڈیفالٹ: anthropic/claude-opus-4-6. اچھا متبادل: anthropic/claude-sonnet-4-5. قابلِ اعتماد (کم شخصیت): openai/gpt-5.2 - اوپس جتنا ہی اچھا، بس شخصیت کچھ کم ہے۔ کم بجٹ: zai/glm-4.7.

MiniMax M2.1 کی اپنی دستاویزات ہیں: MiniMax اور Local models.

عمومی اصول: زیادہ اہم کام کے لیے وہ بہترین ماڈل استعمال کریں جو آپ برداشت کر سکتے ہوں، اور روزمرہ چیٹ یا خلاصوں کے لیے سستا ماڈل۔ آپ ہر ایجنٹ کے لیے ماڈلز روٹ کر سکتے ہیں اور طویل کاموں کو متوازی کرنے کے لیے سب ایجنٹس استعمال کر سکتے ہیں (ہر سب ایجنٹ ٹوکنز استعمال کرتا ہے)۔ Models اور Sub-agents دیکھیں۔

سخت انتباہ: کمزور یا حد سے زیادہ کوانٹائزڈ ماڈلز پرامپٹ انجیکشن اور غیر محفوظ رویّے کے لیے زیادہ حساس ہوتے ہیں۔ Security دیکھیں۔

مزید سیاق و سباق: Models.

کیا میں خود ہوسٹڈ ماڈلز llamacpp vLLM Ollama استعمال کر سکتا ہوں

ہاں. اگر آپ کا لوکل سرور OpenAI-مطابقت رکھنے والا API فراہم کرتا ہے تو آپ اس کی طرف ایک کسٹم پرووائیڈر پوائنٹ کر سکتے ہیں۔ Ollama براہِ راست سپورٹ کیا جاتا ہے اور یہ سب سے آسان راستہ ہے۔

سیکیورٹی نوٹ: چھوٹے یا بہت زیادہ کوانٹائزڈ ماڈلز پرامپٹ انجیکشن کے لیے زیادہ حساس ہوتے ہیں۔ ہم کسی بھی ایسے بوٹ کے لیے جو ٹولز استعمال کر سکتا ہو بڑے ماڈلز کی سختی سے سفارش کرتے ہیں۔ اگر آپ پھر بھی چھوٹے ماڈلز چاہتے ہیں تو سینڈباکسنگ اور سخت ٹول الاولِسٹ فعال کریں۔

Docs: Ollama, Local models, Model providers, Security, Sandboxing.

میں کنفیگ صاف کیے بغیر ماڈلز کیسے تبدیل کروں

ماڈل کمانڈز استعمال کریں یا صرف model فیلڈز میں ترمیم کریں۔ مکمل کنفیگ ری پلیس کرنے سے گریز کریں۔

محفوظ آپشنز:

  • /model چیٹ میں (تیز، فی سیشن)
  • openclaw models set ... (صرف ماڈل کنفیگ اپ ڈیٹ کرتا ہے)
  • openclaw configure --section model (انٹرایکٹو)
  • ~/.openclaw/openclaw.json میں agents.defaults.model ایڈٹ کریں

config.apply کو جزوی آبجیکٹ کے ساتھ استعمال کرنے سے بچیں، الا یہ کہ آپ پورا کنفیگ بدلنا چاہتے ہوں۔ اگر کنفیگ اوور رائٹ ہو گیا ہو تو بیک اپ سے بحال کریں یا مرمت کے لیے openclaw doctor دوبارہ چلائیں۔

Docs: Models, Configure, Config, Doctor.

OpenClaw، Flawd، اور Krill ماڈلز کے لیے کیا استعمال کرتے ہیں

  • OpenClaw + Flawd: Anthropic Opus (anthropic/claude-opus-4-6) - Anthropic دیکھیں۔
  • Krill: MiniMax M2.1 (minimax/MiniMax-M2.1) - MiniMax دیکھیں۔

میں ری اسٹارٹ کیے بغیر فوراً ماڈلز کیسے تبدیل کروں

/model کمانڈ کو ایک الگ پیغام کے طور پر استعمال کریں:

/model sonnet
/model haiku
/model opus
/model gpt
/model gpt-mini
/model gemini
/model gemini-flash

آپ دستیاب ماڈلز کو /model, /model list, یا /model status کے ذریعے دیکھ سکتے ہیں۔

/model (اور /model list) ایک مختصر، نمبر شدہ پِکر دکھاتا ہے۔ نمبر کے ذریعے منتخب کریں:

/model 3

آپ پرووائیڈر کے لیے ایک مخصوص auth پروفائل بھی مجبوراً منتخب کر سکتے ہیں (فی سیشن):

/model opus@anthropic:default
/model opus@anthropic:work

ٹِپ: /model status دکھاتا ہے کہ کون سا ایجنٹ فعال ہے، کون سی auth-profiles.json فائل استعمال ہو رہی ہے، اور اگلا کون سا auth پروفائل آزمایا جائے گا۔ یہ کنفیگر شدہ پرووائیڈر اینڈپوائنٹ (baseUrl) اور API موڈ (api) بھی دکھاتا ہے جب دستیاب ہوں۔

میں profile کے ساتھ سیٹ کیے گئے پروفائل کو کیسے ان پن کروں

@profile سفکس کے بغیر /model دوبارہ چلائیں:

/model anthropic/claude-opus-4-6

اگر آپ ڈیفالٹ پر واپس جانا چاہتے ہیں تو /model سے اسے منتخب کریں (یا /model <default provider/model> بھیجیں)۔ یہ تصدیق کرنے کے لیے /model status استعمال کریں کہ کون سا auth پروفائل فعال ہے۔

کیا میں روزمرہ کاموں کے لیے GPT 5.2 اور کوڈنگ کے لیے Codex 5.3 استعمال کر سکتا ہوں

ہاں. ایک کو ڈیفالٹ سیٹ کریں اور ضرورت کے مطابق سوئچ کریں:

    1. فوری سوئچ (فی سیشن): روزمرہ کاموں کے لیے /model gpt-5.2، اور کوڈنگ کے لیے /model gpt-5.3-codex۔
    1. ڈیفالٹ + سوئچ: agents.defaults.model.primary کو openai/gpt-5.2 پر سیٹ کریں، پھر کوڈنگ کے وقت openai-codex/gpt-5.3-codex پر سوئچ کریں (یا اس کے برعکس)۔
    1. سب ایجنٹس: کوڈنگ کے کاموں کو مختلف ڈیفالٹ ماڈل والے سب ایجنٹس کی طرف روٹ کریں۔
  1. دیکھیں Models اور Slash commands۔

5. مجھے "Model is not allowed" کیوں نظر آتا ہے اور پھر کوئی جواب کیوں نہیں آتا

  1. اگر agents.defaults.models سیٹ ہو، تو یہ /model اور کسی بھی سیشن اوور رائیڈز کے لیے allowlist بن جاتا ہے۔ 7. اس فہرست میں نہ ہونے والا ماڈل منتخب کرنے پر یہ نتیجہ ملتا ہے:
Model "provider/model" is not allowed. Use /model to list available models.
  1. یہ خرابی عام جواب کے بجائے واپس آتی ہے۔ 9. حل: ماڈل کو agents.defaults.models میں شامل کریں، allowlist ہٹا دیں، یا /model list میں سے کوئی ماڈل منتخب کریں۔

10. مجھے "Unknown model minimaxMiniMaxM21" کیوں نظر آتا ہے

  1. اس کا مطلب ہے کہ provider کنفیگر نہیں ہے (MiniMax پرووائیڈر کی کوئی کنفیگریشن یا auth پروفائل نہیں ملا)، اس لیے ماڈل resolve نہیں ہو سکتا۔ 12. اس ڈیٹیکشن کے لیے ایک فکس 2026.1.12 میں ہے (تحریر کے وقت unreleased)۔

  2. فکس چیک لسٹ:

  3. 2026.1.12 پر اپ گریڈ کریں (یا سورس main سے چلائیں)، پھر گیٹ وے ری اسٹارٹ کریں۔

    1. یقینی بنائیں کہ MiniMax کنفیگر ہے (وزارڈ یا JSON)، یا env/auth پروفائلز میں MiniMax API key موجود ہو تاکہ پرووائیڈر انجیکٹ ہو سکے۔
    1. عین ماڈل ID استعمال کریں (case-sensitive): minimax/MiniMax-M2.1 یا minimax/MiniMax-M2.1-lightning۔
  4. Run:

bash openclaw models list

  1. اور فہرست میں سے منتخب کریں (یا چیٹ میں /model list

18) دیکھیں MiniMax اور Models۔

19. کیا میں MiniMax کو ڈیفالٹ اور پیچیدہ کاموں کے لیے OpenAI استعمال کر سکتا ہوں

ہاں. 20. MiniMax کو ڈیفالٹ کے طور پر استعمال کریں اور ضرورت پڑنے پر فی سیشن ماڈلز سوئچ کریں۔ 21. Fallbacks غلطیوں کے لیے ہوتے ہیں، "مشکل کاموں" کے لیے نہیں، اس لیے /model یا علیحدہ ایجنٹ استعمال کریں۔

  1. آپشن A: فی سیشن سوئچ
23. {
  env: { MINIMAX_API_KEY: "sk-...", OPENAI_API_KEY: "sk-..." },
  agents: {
    defaults: {
      model: { primary: "minimax/MiniMax-M2.1" },
      models: {
        "minimax/MiniMax-M2.1": { alias: "minimax" },
        "openai/gpt-5.2": { alias: "gpt" },
      },
    },
  },
}

پھر:

/model gpt
  1. آپشن B: علیحدہ ایجنٹس
    1. ایجنٹ A ڈیفالٹ: MiniMax
    1. ایجنٹ B ڈیفالٹ: OpenAI
    1. ایجنٹ کے ذریعے روٹ کریں یا سوئچ کرنے کے لیے /agent استعمال کریں
  1. دستاویزات: Models، Multi-Agent Routing، MiniMax، OpenAI۔

30. کیا opus sonnet gpt بلٹ اِن شارٹ کٹس ہیں

ہاں. 31. OpenClaw کچھ ڈیفالٹ شارٹ ہینڈز کے ساتھ آتا ہے (صرف تب لاگو ہوتے ہیں جب ماڈل agents.defaults.models میں موجود ہو):

    1. opusanthropic/claude-opus-4-6
    1. sonnetanthropic/claude-sonnet-4-5
    1. gptopenai/gpt-5.2
    1. gpt-miniopenai/gpt-5-mini
    1. geminigoogle/gemini-3-pro-preview
    1. gemini-flashgoogle/gemini-3-flash-preview
  1. اگر آپ اسی نام سے اپنا alias سیٹ کریں تو آپ کی ویلیو کو ترجیح دی جائے گی۔

39. میں ماڈل شارٹ کٹس/aliases کو کیسے define یا override کروں

  1. Aliases agents.defaults.models.<modelId> سے آتے ہیں41. .alias۔ مثال:
42. {
  agents: {
    defaults: {
      model: { primary: "anthropic/claude-opus-4-6" },
      models: {
        "anthropic/claude-opus-4-6": { alias: "opus" },
        "anthropic/claude-sonnet-4-5": { alias: "sonnet" },
        "anthropic/claude-haiku-4-5": { alias: "haiku" },
      },
    },
  },
}
  1. پھر /model sonnet (یا جب سپورٹ ہو تو /<alias>) اسی ماڈل ID پر resolve ہو جاتا ہے۔

44. میں OpenRouter یا ZAI جیسے دوسرے پرووائیڈرز سے ماڈلز کیسے شامل کروں

OpenRouter (فی ٹوکن ادائیگی؛ متعدد ماڈلز):

1. {
  agents: {
    defaults: {
      model: { primary: "openrouter/anthropic/claude-sonnet-4-5" },
      models: { "openrouter/anthropic/claude-sonnet-4-5": {} },
    },
  },
  env: { OPENROUTER_API_KEY: "sk-or-..." },
}
  1. Z.AI (GLM ماڈلز):
48. {
  agents: {
    defaults: {
      model: { primary: "zai/glm-4.7" },
      models: { "zai/glm-4.7": {} },
    },
  },
  env: { ZAI_API_KEY: "..." },
}
  1. اگر آپ کسی پرووائیڈر/ماڈل کا حوالہ دیں لیکن مطلوبہ پرووائیڈر کی کلید موجود نہ ہو، تو رن ٹائم auth ایرر آئے گا (مثلاً No API key found for provider "zai"

  2. نیا ایجنٹ شامل کرنے کے بعد پرووائیڈر کے لیے کوئی API key نہیں ملی

  3. اس کا عام طور پر مطلب یہ ہوتا ہے کہ نئے ایجنٹ کے پاس خالی auth اسٹور ہے۔ 2. Auth ہر ایجنٹ کے لیے الگ ہوتی ہے اور محفوظ کی جاتی ہے:

~/.openclaw/agents/<agentId>/agent/auth-profiles.json

حل کے اختیارات:

    1. openclaw agents add <id> چلائیں اور وزارڈ کے دوران auth کنفیگر کریں۔
    1. یا مرکزی ایجنٹ کے agentDir سے auth-profiles.json کو نئے ایجنٹ کے agentDir میں کاپی کریں۔
  1. ایجنٹس کے درمیان agentDir دوبارہ استعمال نہ کریں؛ اس سے auth/سیشن ٹکراؤ پیدا ہوتے ہیں۔

6. ماڈل فیل اوور اور "All models failed"

7. فیل اوور کیسے کام کرتا ہے

  1. فیل اوور دو مراحل میں ہوتا ہے:

    1. ایک ہی فراہم کنندہ کے اندر Auth پروفائل روٹیشن۔
  2. ماڈل فال بیک agents.defaults.model.fallbacks میں اگلے ماڈل تک۔

10) ناکام ہونے والے پروفائلز پر کول ڈاؤن لاگو ہوتے ہیں (exponential backoff)، تاکہ OpenClaw اس وقت بھی جواب دیتا رہے جب کوئی فراہم کنندہ ریٹ لمٹڈ ہو یا عارضی طور پر ناکام ہو۔

11. اس خرابی کا کیا مطلب ہے

12. پروفائل "anthropic:default" کے لیے کوئی اسناد نہیں ملیں
  1. اس کا مطلب یہ ہے کہ سسٹم نے auth پروفائل ID anthropic:default استعمال کرنے کی کوشش کی، لیکن متوقع auth اسٹور میں اس کی اسناد نہیں مل سکیں۔

14. پروفائل anthropicdefault کے لیے "No credentials found" کی درستگی کی چیک لسٹ

    1. تصدیق کریں کہ auth پروفائلز کہاں موجود ہیں (نئے بمقابلہ لیگیسی راستے)
    1. موجودہ: ~/.openclaw/agents/<agentId>/agent/auth-profiles.json
    1. لیگیسی: ~/.openclaw/agent/* (openclaw doctor کے ذریعے مائیگریٹ کیا جاتا ہے)
    1. تصدیق کریں کہ آپ کا env var گیٹ وے کے ذریعے لوڈ ہو رہا ہے
    1. اگر آپ نے اپنے شیل میں ANTHROPIC_API_KEY سیٹ کیا ہے لیکن گیٹ وے systemd/launchd کے ذریعے چلا رہے ہیں، تو ممکن ہے وہ اسے وراثت میں نہ لے۔ 20. اسے ~/.openclaw/.env میں رکھیں یا env.shellEnv فعال کریں۔
    1. یقینی بنائیں کہ آپ درست ایجنٹ ایڈٹ کر رہے ہیں
    1. ملٹی ایجنٹ سیٹ اپس میں متعدد auth-profiles.json فائلیں ہو سکتی ہیں۔
    1. ماڈل/auth اسٹیٹس کی سینیٹی چیک کریں
    1. کنفیگر کیے گئے ماڈلز اور فراہم کنندگان کی تصدیق شدہ حیثیت دیکھنے کے لیے openclaw models status استعمال کریں۔
  1. پروفائل anthropic کے لیے "No credentials found" کی درستگی کی چیک لسٹ

  2. اس کا مطلب ہے کہ رَن ایک Anthropic auth پروفائل پر پن کیا گیا ہے، لیکن گیٹ وے اسے اپنے auth اسٹور میں نہیں ڈھونڈ پا رہا۔

    1. setup-token استعمال کریں
    1. claude setup-token چلائیں، پھر اسے openclaw models auth setup-token --provider anthropic کے ساتھ پیسٹ کریں۔
    1. اگر ٹوکن کسی اور مشین پر بنایا گیا تھا، تو openclaw models auth paste-token --provider anthropic استعمال کریں۔
    1. اگر آپ اس کے بجائے API key استعمال کرنا چاہتے ہیں
    1. گیٹ وے ہوسٹ پر ANTHROPIC_API_KEY کو ~/.openclaw/.env میں رکھیں۔
    1. کسی بھی پن شدہ آرڈر کو صاف کریں جو گمشدہ پروفائل کو مجبور کرتا ہو:

    bash 33. openclaw models auth order clear --provider anthropic

    1. تصدیق کریں کہ آپ گیٹ وے ہوسٹ پر کمانڈز چلا رہے ہیں
    1. ریموٹ موڈ میں، auth پروفائلز گیٹ وے مشین پر ہوتے ہیں، آپ کے لیپ ٹاپ پر نہیں۔

36. اس نے Google Gemini کو بھی کیوں آزمایا اور ناکام ہوا

  1. اگر آپ کی ماڈل کنفیگ میں Google Gemini بطور فالبیک شامل ہے (یا آپ نے Gemini شارٹ ہینڈ پر سوئچ کیا ہے)، تو OpenClaw ماڈل فالبیک کے دوران اسے آزمائے گا۔ 38. اگر آپ نے Google کی اسناد کنفیگر نہیں کیں، تو آپ کو No API key found for provider "google" نظر آئے گا۔

  2. حل: یا تو Google auth فراہم کریں، یا agents.defaults.model.fallbacks / aliases میں Google ماڈلز کو ہٹا دیں/ان سے گریز کریں تاکہ فالبیک وہاں روٹ نہ ہو۔

  3. LLM request rejected message thinking signature required google antigravity

  4. وجہ: سیشن ہسٹری میں بغیر دستخط کے thinking بلاکس موجود ہیں (اکثر منسوخ/جزوی اسٹریم سے)۔ 42. Google Antigravity کو thinking بلاکس کے لیے دستخط درکار ہوتے ہیں۔

  5. حل: OpenClaw اب Google Antigravity Claude کے لیے بغیر دستخط والے thinking بلاکس کو ہٹا دیتا ہے۔ 44. اگر پھر بھی ظاہر ہو، تو نیا سیشن شروع کریں یا اس ایجنٹ کے لیے /thinking off سیٹ کریں۔

45. Auth پروفائلز: وہ کیا ہیں اور انہیں کیسے منظم کیا جائے

  1. متعلقہ: /concepts/oauth (OAuth فلو، ٹوکن اسٹوریج، ملٹی اکاؤنٹ پیٹرنز)

47. Auth پروفائل کیا ہے

  1. Auth پروفائل ایک نامزد اسناد ریکارڈ ہوتا ہے (OAuth یا API key) جو کسی فراہم کنندہ سے منسلک ہوتا ہے۔ 49. پروفائلز یہاں موجود ہوتے ہیں:
~/.openclaw/agents/<agentId>/agent/auth-profiles.json

50. عام پروفائل IDs کیا ہوتے ہیں

OpenClaw uses provider-prefixed IDs like:

  • anthropic:default (common when no email identity exists)
  • anthropic:<email> for OAuth identities
  • custom IDs you choose (e.g. anthropic:work)

Can I control which auth profile is tried first

ہاں. Config supports optional metadata for profiles and an ordering per provider (auth.order.<provider>). This does not store secrets; it maps IDs to provider/mode and sets rotation order.

OpenClaw may temporarily skip a profile if it's in a short cooldown (rate limits/timeouts/auth failures) or a longer disabled state (billing/insufficient credits). To inspect this, run openclaw models status --json and check auth.unusableProfiles. Tuning: auth.cooldowns.billingBackoffHours*.

You can also set a per-agent order override (stored in that agent's auth-profiles.json) via the CLI:

# Defaults to the configured default agent (omit --agent)
openclaw models auth order get --provider anthropic

# Lock rotation to a single profile (only try this one)
openclaw models auth order set --provider anthropic anthropic:default

# Or set an explicit order (fallback within provider)
openclaw models auth order set --provider anthropic anthropic:work anthropic:default

# Clear override (fall back to config auth.order / round-robin)
openclaw models auth order clear --provider anthropic
  1. کسی مخصوص ایجنٹ کو ہدف بنانے کے لیے:
openclaw models auth order set --provider anthropic --agent main anthropic:default

OAuth vs API key whats the difference

OpenClaw supports both:

  • OAuth often leverages subscription access (where applicable).
    1. API keys میں pay-per-token بلنگ استعمال ہوتی ہے۔

The wizard explicitly supports Anthropic setup-token and OpenAI Codex OAuth and can store API keys for you.

Gateway: ports, "already running", and remote mode

What port does the Gateway use

gateway.port controls the single multiplexed port for WebSocket + HTTP (Control UI, hooks, etc.).

ترجیحی ترتیب:

--port > OPENCLAW_GATEWAY_PORT > gateway.port > default 18789

Why does openclaw gateway status say Runtime running but RPC probe failed

Because "running" is the supervisor's view (launchd/systemd/schtasks). The RPC probe is the CLI actually connecting to the gateway WebSocket and calling status.

Use openclaw gateway status and trust these lines:

  • Probe target: (the URL the probe actually used)
  • Listening: (what's actually bound on the port)
  • Last gateway error: (common root cause when the process is alive but the port isn't listening)

Why does openclaw gateway status show Config cli and Config service different

You're editing one config file while the service is running another (often a --profile / OPENCLAW_STATE_DIR mismatch).

Fix:

openclaw gateway install --force

Run that from the same --profile / environment you want the service to use.

What does another gateway instance is already listening mean

OpenClaw enforces a runtime lock by binding the WebSocket listener immediately on startup (default ws://127.0.0.1:18789). If the bind fails with EADDRINUSE, it throws GatewayLockError indicating another instance is already listening.

Fix: stop the other instance, free the port, or run with openclaw gateway --port <port>.

5. میں OpenClaw کو ریموٹ موڈ میں کیسے چلاؤں جہاں کلائنٹ کہیں اور موجود Gateway سے کنیکٹ ہو

Set gateway.mode: "remote" and point to a remote WebSocket URL, optionally with a token/password:

{
  gateway: {
    mode: "remote",
    remote: {
      url: "ws://gateway.tailnet:18789",
      token: "your-token",
      password: "your-password",
    },
  },
}

Notes:

  • openclaw gateway only starts when gateway.mode is local (or you pass the override flag).
  • The macOS app watches the config file and switches modes live when these values change.

The Control UI says unauthorized or keeps reconnecting What now

Your gateway is running with auth enabled (gateway.auth.*), but the UI is not sending the matching token/password.

Facts (from code):

  • The Control UI stores the token in browser localStorage key openclaw.control.settings.v1.

Fix:

  • Fastest: openclaw dashboard (prints + copies the dashboard URL, tries to open; shows SSH hint if headless).
  • If you don't have a token yet: openclaw doctor --generate-gateway-token.
    1. اگر ریموٹ ہو تو پہلے ٹنل بنائیں: ssh -N -L 18789:127.0.0.1:18789 user@host پھر http://127.0.0.1:18789/ کھولیں۔
    1. گیٹ وے ہوسٹ پر gateway.auth.token (یا OPENCLAW_GATEWAY_TOKEN) سیٹ کریں۔
    1. کنٹرول UI کی سیٹنگز میں وہی ٹوکن پیسٹ کریں۔
    1. اب بھی مسئلہ ہے؟ 5. openclaw status --all چلائیں اور Troubleshooting پر عمل کریں۔ 6. تصدیق کی تفصیلات کے لیے Dashboard دیکھیں۔

7. میں نے gatewaybind tailnet سیٹ کیا ہے لیکن یہ بائنڈ نہیں ہو رہا، کچھ بھی سن نہیں رہا۔

  1. tailnet بائنڈ آپ کے نیٹ ورک انٹرفیسز سے ایک Tailscale IP منتخب کرتا ہے (100.64.0.0/10)۔ 9. اگر مشین Tailscale پر نہیں ہے (یا انٹرفیس ڈاؤن ہے)، تو بائنڈ کرنے کے لیے کچھ نہیں۔

Fix:

    1. اس ہوسٹ پر Tailscale شروع کریں (تاکہ اس کے پاس 100.x ایڈریس ہو)، یا
    1. gateway.bind: "loopback" / "lan" پر سوئچ کریں۔
  1. نوٹ: tailnet واضح (explicit) ہے۔ 13. auto لوپ بیک کو ترجیح دیتا ہے؛ جب آپ صرف tailnet پر بائنڈ چاہتے ہوں تو gateway.bind: "tailnet" استعمال کریں۔

14. کیا میں ایک ہی ہوسٹ پر متعدد Gateways چلا سکتا ہوں؟

  1. عموماً نہیں — ایک Gateway متعدد میسجنگ چینلز اور ایجنٹس چلا سکتا ہے۔ 16. متعدد Gateways صرف تب استعمال کریں جب آپ کو ریڈنڈنسی (مثلاً ریسکیو بوٹ) یا سخت آئسولیشن درکار ہو۔

  2. ہاں، لیکن آپ کو آئسولیٹ کرنا ہوگا:

    1. OPENCLAW_CONFIG_PATH (ہر انسٹینس کے لیے کنفگ)
    1. OPENCLAW_STATE_DIR (ہر انسٹینس کے لیے اسٹیٹ)
    1. agents.defaults.workspace (ورک اسپیس آئسولیشن)
    1. gateway.port (یونیک پورٹس)
  1. فوری سیٹ اپ (تجویز کردہ):
    1. ہر انسٹینس کے لیے openclaw --profile <name> … استعمال کریں (خودکار طور پر ~/.openclaw-<name> بناتا ہے)۔
    1. ہر پروفائل کنفگ میں منفرد gateway.port سیٹ کریں (یا دستی رنز کے لیے --port پاس کریں)۔
    1. ہر پروفائل کے لیے سروس انسٹال کریں: openclaw --profile <name> gateway install۔
  1. پروفائلز سروس ناموں کے ساتھ لاحقہ بھی لگاتے ہیں (bot.molt.<profile>27. ; legacycom.openclaw.*,openclaw-gateway-.service,OpenClaw Gateway ()`)۔
  2. مکمل گائیڈ: Multiple gateways۔

29. invalid handshake code 1008 کا کیا مطلب ہے؟

  1. گیٹ وے ایک WebSocket server ہے، اور یہ توقع کرتا ہے کہ بالکل پہلا پیغام be a connect frame.

  2. اگر اسے اس کے علاوہ کچھ بھی ملے، تو یہ کنکشن کو

  • code 1008 (policy violation) کے ساتھ بند کر دیتا ہے۔
    1. آپ نے غلط پورٹ یا راستہ (path) استعمال کیا ہے۔
    1. آپ نے WS کلائنٹ کے بجائے براؤزر میں HTTP URL کھولا (http://...
  1. آپ نے غلط پورٹ یا پاتھ استعمال کیا۔

    1. کسی پروکسی یا ٹنل نے auth ہیڈرز ہٹا دیے یا غیر Gateway ریکویسٹ بھیج دی۔
    1. فوری حل:
    1. WS URL استعمال کریں: ws://<host>:18789 (یا اگر HTTPS ہو تو wss://...

38) WS پورٹ کو عام براؤزر ٹیب میں نہ کھولیں۔

39. اگر auth آن ہے تو `connect` فریم میں ٹوکن/پاس ورڈ شامل کریں۔
  1. پروٹوکول کی تفصیلات: Gateway protocol.

8. لاگنگ اور ڈیبگنگ

42. پروٹوکول کی تفصیلات: Gateway protocol۔

  1. لاگنگ اور ڈیبگنگ
/tmp/openclaw/openclaw-YYYY-MM-DD.log
  1. لاگز کہاں ہیں؟ 45. فائل لاگز (structured): 46. آپ logging.file کے ذریعے ایک مستحکم پاتھ سیٹ کر سکتے ہیں۔

  2. فائل لاگ لیول logging.level کے ذریعے کنٹرول ہوتا ہے۔

openclaw logs --follow
  1. کنسول کی verbosity --verbose اور logging.consoleLevel سے کنٹرول ہوتی ہے۔
  • macOS: $OPENCLAW_STATE_DIR/logs/gateway.log and gateway.err.log (default: ~/.openclaw/logs/...; profiles use ~/.openclaw-<profile>/logs/...)
  • Linux: journalctl --user -u openclaw-gateway[-<profile>].service -n 200 --no-pager
  • Windows: schtasks /Query /TN "OpenClaw Gateway (<profile>)" /V /FO LIST

See Troubleshooting for more.

How do I startstoprestart the Gateway service

Use the gateway helpers:

openclaw gateway status
openclaw gateway restart

If you run the gateway manually, openclaw gateway --force can reclaim the port. See Gateway.

I closed my terminal on Windows how do I restart OpenClaw

There are two Windows install modes:

1) WSL2 (recommended): the Gateway runs inside Linux.

Open PowerShell, enter WSL, then restart:

wsl
openclaw gateway status
openclaw gateway restart

If you never installed the service, start it in the foreground:

openclaw gateway run

2) Native Windows (not recommended): the Gateway runs directly in Windows.

Open PowerShell and run:

openclaw gateway status
openclaw gateway restart

If you run it manually (no service), use:

openclaw gateway run

Docs: Windows (WSL2), Gateway service runbook.

The Gateway is up but replies never arrive What should I check

Start with a quick health sweep:

openclaw status
openclaw models status
openclaw channels status
openclaw logs --follow

Common causes:

  • Model auth not loaded on the gateway host (check models status).
  • Channel pairing/allowlist blocking replies (check channel config + logs).
  • WebChat/Dashboard is open without the right token.

If you are remote, confirm the tunnel/Tailscale connection is up and that the Gateway WebSocket is reachable.

Docs: Channels, Troubleshooting, Remote access.

Disconnected from gateway no reason what now

This usually means the UI lost the WebSocket connection. Check:

  1. Is the Gateway running? openclaw gateway status
  2. Is the Gateway healthy? openclaw status
  3. Does the UI have the right token? openclaw dashboard
  4. If remote, is the tunnel/Tailscale link up?

Then tail logs:

openclaw logs --follow

Docs: Dashboard, Remote access, Troubleshooting.

Telegram setMyCommands fails with network errors What should I check

Start with logs and channel status:

openclaw channels status
openclaw channels logs --channel telegram

If you are on a VPS or behind a proxy, confirm outbound HTTPS is allowed and DNS works. If the Gateway is remote, make sure you are looking at logs on the Gateway host.

Docs: Telegram, Channel troubleshooting.

TUI shows no output What should I check

First confirm the Gateway is reachable and the agent can run:

openclaw status
openclaw models status
openclaw logs --follow

In the TUI, use /status to see the current state. If you expect replies in a chat channel, make sure delivery is enabled (/deliver on).

Docs: TUI, Slash commands.

9. میں Gateway کو مکمل طور پر کیسے بند کر کے دوبارہ شروع کروں

اگر آپ نے سروس انسٹال کی ہے:

openclaw gateway stop

openclaw gateway start یہ نگرانی شدہ سروس کو روکتا/شروع کرتا ہے (macOS پر launchd، Linux پر systemd)۔

جب گیٹ وے بیک گراؤنڈ میں بطور ڈیمون چل رہا ہو تو یہ استعمال کریں۔

openclaw gateway run

اگر آپ فرنٹ گراؤنڈ میں چلا رہے ہیں تو Ctrl-C سے روکیں، پھر:

دستاویزات: Gateway service runbook.

  • ELI5: openclaw gateway restart بمقابلہ openclaw gateway
  • openclaw gateway restart: بیک گراؤنڈ سروس (launchd/systemd) کو دوبارہ شروع کرتا ہے۔

openclaw gateway: اس ٹرمینل سیشن کے لیے گیٹ وے کو فرنٹ گراؤنڈ میں چلاتا ہے۔ 10. جب آپ کو ایک وقتی، foreground رن چاہیے ہو تو openclaw gateway استعمال کریں۔

openclaw gateway اس وقت استعمال کریں جب آپ ایک وقتی، فرنٹ گراؤنڈ رن چاہتے ہوں۔

  1. مزید کنسول تفصیل حاصل کرنے کے لیے Gateway کو --verbose کے ساتھ شروع کریں۔ 12. پھر چینل آتھنٹیکیشن، ماڈل روٹنگ، اور RPC ایررز کے لیے لاگ فائل کا جائزہ لیں۔

پھر چینل آتھنٹیکیشن، ماڈل روٹنگ، اور RPC خرابیوں کے لیے لاگ فائل دیکھیں۔

میڈیا اور منسلکات

میری اسکل نے ایک imagePDF بنایا لیکن کچھ بھی نہیں بھیجا گیا ایجنٹ سے بھیجے جانے والے آؤٹ باؤنڈ منسلکات میں ایک MEDIA:<path-or-url> لائن (الگ لائن پر) شامل ہونی چاہیے۔

OpenClaw assistant setup اور Agent send دیکھیں۔

13. openclaw message send --target +15555550123 --message "Here you go" --media /path/to/file.png

openclaw message send --target +15555550123 --message "Here you go" --media /path/to/file.png

    1. ہدف چینل آؤٹ باؤنڈ میڈیا کو سپورٹ کرتا ہو اور allowlists کے ذریعے بلاک نہ ہو۔
    1. فائل پرووائیڈر کی سائز لمٹس کے اندر ہو (تصاویر کو زیادہ سے زیادہ 2048px تک ری سائز کیا جاتا ہے)۔

فائل فراہم کنندہ کی سائز حد کے اندر ہو (تصاویر کو زیادہ سے زیادہ 2048px تک ری سائز کیا جاتا ہے)۔

Images دیکھیں۔

سیکیورٹی اور رسائی کنٹرول

کیا OpenClaw کو اِن باؤنڈ DMs کے لیے ایکسپوز کرنا محفوظ ہے 16. ڈیفالٹس کو رسک کم کرنے کے لیے ڈیزائن کیا گیا ہے:

  • ڈیفالٹس خطرے کو کم کرنے کے لیے ڈیزائن کیے گئے ہیں:
  • DM-قابل چینلز پر ڈیفالٹ رویہ pairing ہے:
    1. اس کے ساتھ منظوری دیں: openclaw pairing approve <channel> <code>
  • منظوری دیں: openclaw pairing approve <channel> <code>
  • زیرِ التواء درخواستیں ہر چینل پر 3 تک محدود ہیں؛ اگر کوڈ نہیں آیا تو openclaw pairing list <channel> چیک کریں۔

DMs کو عوامی طور پر کھولنے کے لیے واضح opt-in درکار ہے (dmPolicy: "open" اور allowlist "*"

18. کیا prompt injection صرف عوامی بوٹس کے لیے ہی تشویش کا باعث ہے

نہیں. کیا پرامپٹ انجیکشن صرف عوامی بوٹس کے لیے تشویش ہے پرامپٹ انجیکشن غیر معتبر مواد کے بارے میں ہے، نہ کہ صرف یہ کہ کون بوٹ کو DM کر سکتا ہے۔ اگر آپ کا اسسٹنٹ بیرونی مواد پڑھتا ہے (ویب سرچ/فیچ، براؤزر صفحات، ای میلز، دستاویزات، منسلکات، پیسٹ کیے گئے لاگز)، تو اس مواد میں ایسی ہدایات ہو سکتی ہیں جو ماڈل کو ہائی جیک کرنے کی کوشش کریں۔

یہ اس صورت میں بھی ہو سکتا ہے جب آپ ہی واحد بھیجنے والے ہوں۔ سب سے بڑا خطرہ تب ہوتا ہے جب ٹولز فعال ہوں: ماڈل کو دھوکہ دے کر سیاق و سباق خارج کروایا جا سکتا ہے یا آپ کی طرف سے ٹولز کال کروائے جا سکتے ہیں۔

  • اثر کے دائرے کو کم کریں:
  • غیر معتبر مواد کا خلاصہ بنانے کے لیے ریڈ اونلی یا ٹول-غیر فعال "reader" ایجنٹ استعمال کریں
    1. sandboxing اور سخت tool allowlists

سینڈ باکسنگ اور سخت ٹول allowlists

تفصیلات: Security.

کیا میرے بوٹ کے لیے الگ ای میل، GitHub اکاؤنٹ، یا فون نمبر ہونا چاہیے جی ہاں، زیادہ تر سیٹ اپس کے لیے۔ بوٹ کو الگ اکاؤنٹس اور فون نمبرز کے ساتھ الگ رکھنا کسی خرابی کی صورت میں اثر کے دائرے کو کم کرتا ہے۔

اس سے اسناد (credentials) کو گھمانا یا رسائی منسوخ کرنا بھی آسان ہو جاتا ہے بغیر آپ کے ذاتی اکاؤنٹس کو متاثر کیے۔ Give access only to the tools and accounts you actually need, and expand later if required.

Docs: Security, Pairing.

Can I give it autonomy over my text messages and is that safe

We do not recommend full autonomy over your personal messages. The safest pattern is:

  • Keep DMs in pairing mode or a tight allowlist.
  • Use a separate number or account if you want it to message on your behalf.
  • Let it draft, then approve before sending.

If you want to experiment, do it on a dedicated account and keep it isolated. See Security.

Can I use cheaper models for personal assistant tasks

Yes, if the agent is chat-only and the input is trusted. Smaller tiers are more susceptible to instruction hijacking, so avoid them for tool-enabled agents or when reading untrusted content. If you must use a smaller model, lock down tools and run inside a sandbox. See Security.

I ran start in Telegram but didnt get a pairing code

Pairing codes are sent only when an unknown sender messages the bot and dmPolicy: "pairing" is enabled. /start by itself doesn't generate a code.

Check pending requests:

openclaw pairing list telegram

If you want immediate access, allowlist your sender id or set dmPolicy: "open" for that account.

WhatsApp will it message my contacts How does pairing work

نہیں. Default WhatsApp DM policy is pairing. Unknown senders only get a pairing code and their message is not processed. 20. OpenClaw صرف انہی چیٹس کا جواب دیتا ہے جو اسے موصول ہوں یا وہ واضح sends جنہیں آپ خود ٹرگر کریں۔

Approve pairing with:

openclaw pairing approve whatsapp <code>
  1. زیرِ التوا درخواستوں کی فہرست بنائیں:
openclaw pairing list whatsapp

Wizard phone number prompt: it's used to set your allowlist/owner so your own DMs are permitted. It's not used for auto-sending. If you run on your personal WhatsApp number, use that number and enable channels.whatsapp.selfChatMode.

Chat commands, aborting tasks, and "it won't stop"

How do I stop internal system messages from showing in chat

Most internal or tool messages only appear when verbose or reasoning is enabled for that session.

Fix in the chat where you see it:

/verbose off
/reasoning off
  1. اگر اب بھی زیادہ شور ہے تو Control UI میں سیشن سیٹنگز چیک کریں اور verbose کو inherit پر سیٹ کریں۔ Also confirm you are not using a bot profile with verboseDefault set to on in config.

Docs: Thinking and verbose, Security.

How do I stopcancel a running task

Send any of these as a standalone message (no slash):

stop
abort
esc
wait
exit
interrupt
  1. یہ abort triggers ہیں (slash commands نہیں)۔

For background processes (from the exec tool), you can ask the agent to run:

24. process action:kill sessionId:XXX

Slash commands overview: see Slash commands.

Most commands must be sent as a standalone message that starts with /, but a few shortcuts (like /status) also work inline for allowlisted senders.

How do I send a Discord message from Telegram Crosscontext messaging denied

OpenClaw blocks cross-provider messaging by default. 25. اگر کوئی tool call Telegram سے باؤنڈ ہے تو وہ Discord پر نہیں بھیجے گا جب تک آپ واضح طور پر اجازت نہ دیں۔

Enable cross-provider messaging for the agent:

{
  agents: {
    defaults: {
      tools: {
        message: {
          crossContext: {
            allowAcrossProviders: true,
            marker: { enabled: true, prefix: "[from {channel}] " },
          },
        },
      },
    },
  },
}

کنفیگ میں ترمیم کے بعد گیٹ وے کو دوبارہ شروع کریں۔ اگر آپ یہ صرف ایک واحد ایجنٹ کے لیے چاہتے ہیں، تو اسے agents.list[].tools.message کے تحت سیٹ کریں۔

26. ایسا کیوں لگتا ہے کہ بوٹ تیزی سے آنے والے پیغامات کو نظرانداز کر رہا ہے

کیو موڈ یہ کنٹرول کرتا ہے کہ نئے پیغامات ایک جاری رَن کے ساتھ کیسے تعامل کرتے ہیں۔ موڈ تبدیل کرنے کے لیے /queue استعمال کریں:

  • steer - نئے پیغامات موجودہ ٹاسک کا رخ موڑ دیتے ہیں
  • followup - پیغامات ایک وقت میں ایک چلتے ہیں
  • collect - پیغامات کو بیچ کریں اور ایک بار جواب دیں (ڈیفالٹ)
  • steer-backlog - ابھی رخ موڑیں، پھر بیک لاگ پراسیس کریں
  • interrupt - موجودہ رَن ختم کریں اور ازسرِنو شروع کریں

آپ فالو اَپ موڈز کے لیے debounce:2s cap:25 drop:summarize جیسے آپشنز شامل کر سکتے ہیں۔

اسکرین شاٹ/چیٹ لاگ میں موجود عین سوال کا جواب دیں

سوال: "Anthropic کے لیے API key کے ساتھ ڈیفالٹ ماڈل کون سا ہے؟"

جواب: OpenClaw میں، اسناد اور ماڈل کا انتخاب الگ ہوتے ہیں۔ ANTHROPIC_API_KEY سیٹ کرنا (یا auth profiles میں Anthropic API key محفوظ کرنا) توثیق کو فعال کرتا ہے، لیکن اصل ڈیفالٹ ماڈل وہی ہوتا ہے جو آپ agents.defaults.model.primary میں کنفیگر کرتے ہیں (مثال کے طور پر، anthropic/claude-sonnet-4-5 یا anthropic/claude-opus-4-6)۔ اگر آپ کو No credentials found for profile "anthropic:default" نظر آئے، تو اس کا مطلب ہے کہ گیٹ وے کو چلنے والے ایجنٹ کے لیے متوقع auth-profiles.json میں Anthropic کی اسناد نہیں مل سکیں۔


  1. اب بھی پھنسے ہوئے ہیں؟ Discord میں پوچھیں یا GitHub discussion کھولیں۔