Community translations by veiseule.ai — Help improve them on Crowdin
Skip to main content

टोकन उपयोग और लागत

OpenClaw tokens को ट्रैक करता है, अक्षरों को नहीं। Tokens मॉडल-विशिष्ट होते हैं, लेकिन अधिकांश OpenAI-style models average ~4 characters per token for English text.

सिस्टम प्रॉम्प्ट कैसे बनाया जाता है

OpenClaw हर रन पर अपना स्वयं का system prompt तैयार करता है। इसमें शामिल हैं:

  • टूल सूची + संक्षिप्त विवरण
  • Skills सूची (केवल मेटाडेटा; निर्देश आवश्यकता पड़ने पर read के साथ लोड होते हैं)
  • स्वयं-अपडेट निर्देश
  • Workspace + bootstrap files (AGENTS.md, SOUL.md, TOOLS.md, IDENTITY.md, USER.md, HEARTBEAT.md, BOOTSTRAP.md when new). Large files are truncated by agents.defaults.bootstrapMaxChars (default: 20000).
  • समय (UTC + उपयोगकर्ता समय-क्षेत्र)
  • उत्तर टैग + हार्टबीट व्यवहार
  • रनटाइम मेटाडेटा (होस्ट/OS/मॉडल/थिंकिंग)

पूर्ण विवरण के लिए System Prompt देखें।

संदर्भ विंडो में क्या गिना जाता है

मॉडल को जो भी प्राप्त होता है, वह संदर्भ सीमा में गिना जाता है:

  • सिस्टम प्रॉम्प्ट (ऊपर सूचीबद्ध सभी अनुभाग)
  • वार्तालाप इतिहास (उपयोगकर्ता + सहायक संदेश)
  • टूल कॉल और टूल परिणाम
  • संलग्नक/प्रतिलिपियाँ (चित्र, ऑडियो, फ़ाइलें)
  • संपीड़न सारांश और प्रूनिंग आर्टिफ़ैक्ट्स
  • प्रदाता रैपर या सुरक्षा हेडर (दिखाई नहीं देते, लेकिन फिर भी गिने जाते हैं)

व्यावहारिक विवरण (प्रत्येक injected फ़ाइल, tools, skills, और system prompt के आकार के अनुसार) के लिए /context list या /context detail का उपयोग करें। देखें Context

वर्तमान टोकन उपयोग कैसे देखें

चैट में इनका उपयोग करें:

  • /status → सत्र मॉडल, संदर्भ उपयोग, अंतिम उत्तर के इनपुट/आउटपुट टोकन, और अनुमानित लागत (केवल API कुंजी) के साथ इमोजी‑समृद्ध स्टेटस कार्ड
  • /usage off|tokens|full → हर उत्तर में प्रति-उत्तर उपयोग फ़ुटर जोड़ता है।
  • प्रति सत्र स्थायी रहता है ( responseUsage के रूप में संग्रहीत)।
  • OAuth प्रमाणीकरण लागत छुपाता है (केवल टोकन)।
  • /usage cost → OpenClaw सत्र लॉग से स्थानीय लागत सारांश दिखाता है।

अन्य सतहें:

  • TUI/Web TUI: /status + /usage समर्थित हैं।
  • CLI: openclaw status --usage और openclaw channels list प्रदाता कोटा विंडो दिखाते हैं (प्रति-उत्तर लागत नहीं)।

लागत अनुमान (जब दिखाया जाए)

लागत आपके मॉडल मूल्य निर्धारण विन्यास से अनुमानित की जाती है:

models.providers.<provider>.models[].cost

ये input, output, cacheRead, और के लिए USD per 1M tokens हैं cacheWrite. If pricing is missing, OpenClaw shows tokens only. OAuth tokens never show dollar cost.

कैश TTL और प्रूनिंग का प्रभाव

Provider prompt caching केवल cache TTL विंडो के भीतर लागू होती है। OpenClaw कर सकता है optionally run cache-ttl pruning: it prunes the session once the cache TTL has expired, then resets the cache window so subsequent requests can re-use the freshly cached context instead of re-caching the full history. This keeps cache write costs lower when a session goes idle past the TTL.

इसे Gateway configuration में विन्यस्त करें और व्यवहार विवरण Session pruning में देखें।

Heartbeat निष्क्रिय अंतराल के दौरान cache को warm रख सकता है। यदि आपके मॉडल का cache TTL is 1h, setting the heartbeat interval just under that (e.g., 55m) can avoid re-caching the full prompt, reducing cache write costs.

Anthropic API की कीमतों के लिए, cache reads, input की तुलना में काफी सस्ते होते हैं tokens, while cache writes are billed at a higher multiplier. See Anthropic’s prompt caching pricing for the latest rates and TTL multipliers: https://docs.anthropic.com/docs/build-with-claude/prompt-caching

उदाहरण: हार्टबीट के साथ 1h कैश warm रखें

agents:
  defaults:
    model:
      primary: "anthropic/claude-opus-4-6"
    models:
      "anthropic/claude-opus-4-6":
        params:
          cacheRetention: "long"
    heartbeat:
      every: "55m"

टोकन दबाव कम करने के सुझाव

  • लंबे सत्रों का सारांश बनाने के लिए /compact का उपयोग करें।
  • अपने वर्कफ़्लो में बड़े टूल आउटपुट ट्रिम करें।
  • Skill विवरण छोटे रखें (Skill सूची प्रॉम्प्ट में इंजेक्ट होती है)।
  • विस्तृत, अन्वेषणात्मक कार्य के लिए छोटे मॉडलों को प्राथमिकता दें।

सटीक Skill सूची ओवरहेड सूत्र के लिए Skills देखें।