Community translations by veiseule.ai — Help improve them on Crowdin
Skip to main content

آڈیو / وائس نوٹس — 2026-01-17

کیا کام کرتا ہے

  • میڈیا سمجھ (آڈیو): اگر آڈیو سمجھ فعال ہو (یا خودکار طور پر معلوم ہو جائے)، تو OpenClaw: 1. پہلی آڈیو اٹیچمنٹ (لوکل پاتھ یا URL) تلاش کرتا ہے اور ضرورت ہو تو ڈاؤن لوڈ کرتا ہے۔ 2. ہر ماڈل اندراج کو بھیجنے سے پہلے maxBytes نافذ کرتا ہے۔ 3. ترتیب کے مطابق پہلے اہل ماڈل اندراج (provider یا CLI) کو چلاتا ہے۔ 4. اگر ناکام ہو جائے یا چھوڑ دے (سائز/ٹائم آؤٹ)، تو اگلے اندراج کی کوشش کرتا ہے۔ 5. کامیابی پر، Body کو ایک [Audio] بلاک سے بدل دیتا ہے اور {{Transcript}} سیٹ کرتا ہے۔
  • کمانڈ پارسنگ: جب ٹرانسکرپشن کامیاب ہو جائے، تو CommandBody/RawBody کو ٹرانسکرپٹ پر سیٹ کیا جاتا ہے تاکہ سلیش کمانڈز بدستور کام کریں۔
  • تفصیلی لاگنگ: --verbose میں، ہم لاگ کرتے ہیں کہ کب ٹرانسکرپشن چلتی ہے اور کب وہ باڈی کو تبدیل کرتی ہے۔

خودکار تشخیص (بطورِ طے شدہ)

اگر آپ ماڈلز کنفیگر نہیں کرتے اور tools.media.audio.enabled کو false پر سیٹ نہیں کیا گیا، تو OpenClaw اس ترتیب سے خودکار طور پر تشخیص کرتا ہے اور پہلی کام کرنے والی آپشن پر رک جاتا ہے:

  1. لوکل CLIs (اگر انسٹال ہوں) - sherpa-onnx-offline (کے لیے SHERPA_ONNX_MODEL_DIR درکار ہے جس میں encoder/decoder/joiner/tokens شامل ہوں) - whisper-cli (whisper-cpp سے؛ WHISPER_CPP_MODEL یا بنڈلڈ tiny ماڈل استعمال کرتا ہے) - whisper (Python CLI؛ ماڈلز خودکار طور پر ڈاؤن لوڈ کرتا ہے)
  2. Gemini CLI (gemini) بذریعہ read_many_files
  3. Provider keys (OpenAI → Groq → Deepgram → Google)

To disable auto-detection, set tools.media.audio.enabled: false. To customize, set tools.media.audio.models. نوٹ: بائنری کی شناخت macOS/Linux/Windows پر بہترین کوشش کی بنیاد پر ہوتی ہے؛ یقینی بنائیں کہ CLI PATH پر موجود ہو (ہم ~ کو توسیع دیتے ہیں)، یا مکمل کمانڈ پاتھ کے ساتھ ایک واضح CLI ماڈل سیٹ کریں۔

کنفیگ مثالیں

Provider + CLI فال بیک (OpenAI + Whisper CLI)

{
  tools: {
    media: {
      audio: {
        enabled: true,
        maxBytes: 20971520,
        models: [
          { provider: "openai", model: "gpt-4o-mini-transcribe" },
          {
            type: "cli",
            command: "whisper",
            args: ["--model", "base", "{{MediaPath}}"],
            timeoutSeconds: 45,
          },
        ],
      },
    },
  },
}

اسکوپ گیٹنگ کے ساتھ صرف Provider

{
  tools: {
    media: {
      audio: {
        enabled: true,
        scope: {
          default: "allow",
          rules: [{ action: "deny", match: { chatType: "group" } }],
        },
        models: [{ provider: "openai", model: "gpt-4o-mini-transcribe" }],
      },
    },
  },
}

صرف Provider (Deepgram)

{
  tools: {
    media: {
      audio: {
        enabled: true,
        models: [{ provider: "deepgram", model: "nova-3" }],
      },
    },
  },
}

نوٹس اور حدود

  • Provider کی تصدیق معیاری ماڈل تصدیقی ترتیب کی پیروی کرتی ہے (auth پروفائلز، env vars، models.providers.*.apiKey
  • Deepgram، provider: "deepgram" استعمال ہونے پر DEEPGRAM_API_KEY اٹھا لیتا ہے۔
  • Deepgram سیٹ اپ کی تفصیلات: Deepgram (audio transcription)۔
  • آڈیو providers، tools.media.audio کے ذریعے baseUrl، headers، اور providerOptions کو اووررائیڈ کر سکتے ہیں۔
  • ڈیفالٹ سائز حد 20MB ہے (tools.media.audio.maxBytes)۔ حد سے زیادہ بڑی آڈیو اس ماڈل کے لیے نظر انداز کر دی جاتی ہے اور فہرست میں اگلا اندراج آزمایا جاتا ہے۔
  • آڈیو کے لیے ڈیفالٹ maxChars غیر متعین ہے (مکمل ٹرانسکرپٹ)۔ آؤٹ پٹ کو مختصر کرنے کے لیے tools.media.audio.maxChars یا ہر اندراج کے لیے maxChars سیٹ کریں۔
  • OpenAI کا خودکار ڈیفالٹ gpt-4o-mini-transcribe ہے؛ زیادہ درستگی کے لیے model: "gpt-4o-transcribe" سیٹ کریں۔
  • متعدد وائس نوٹس پراسیس کرنے کے لیے tools.media.audio.attachments استعمال کریں (mode: "all" + maxAttachments
  • ٹرانسکرپٹ ٹیمپلیٹس میں {{Transcript}} کے طور پر دستیاب ہے۔
  • CLI stdout کی حد (5MB) ہے؛ CLI آؤٹ پٹ مختصر رکھیں۔

Gotchas

  • Scope rules use first-match wins. chatType is normalized to direct, group, or room.
  • یقینی بنائیں کہ آپ کا CLI 0 کے ساتھ ایگزٹ کرے اور سادہ متن پرنٹ کرے؛ JSON کو jq -r .text کے ذریعے درست کرنا ہوگا۔
  • جوابی قطار کو بلاک ہونے سے بچانے کے لیے ٹائم آؤٹس مناسب رکھیں (timeoutSeconds، بطورِ طے شدہ 60s)۔