Community translations by veiseule.ai — Help improve them on Crowdin
Skip to main content

Paggamit ng token at mga gastos

Sinusubaybayan ng OpenClaw ang tokens, hindi mga character. Ang mga token ay nakadepende sa modelo, ngunit karamihan OpenAI-style models average ~4 characters per token for English text.

Paano binubuo ang system prompt

Binubuo ng OpenClaw ang sarili nitong system prompt sa bawat pagtakbo. Kabilang dito ang:

  • Listahan ng mga tool + maiikling paglalarawan
  • Listahan ng Skills (metadata lang; ang mga instruction ay nilo-load on demand gamit ang read)
  • Mga instruction para sa self-update
  • Workspace + bootstrap files (AGENTS.md, SOUL.md, TOOLS.md, IDENTITY.md, USER.md, HEARTBEAT.md, BOOTSTRAP.md when new). Large files are truncated by agents.defaults.bootstrapMaxChars (default: 20000).
  • Oras (UTC + timezone ng user)
  • Mga reply tag + heartbeat behavior
  • Metadata ng runtime (host/OS/model/pag-iisip)

Tingnan ang buong breakdown sa System Prompt.

Ano ang binibilang sa context window

Lahat ng natatanggap ng model ay binibilang sa context limit:

  • System prompt (lahat ng seksyong nakalista sa itaas)
  • History ng conversation (mga mensahe ng user + assistant)
  • Mga tool call at mga resulta ng tool
  • Mga attachment/transcript (mga imahe, audio, file)
  • Mga compaction summary at pruning artifact
  • Mga provider wrapper o safety header (hindi nakikita, pero binibilang pa rin)

Para sa praktikal na breakdown (bawat na-inject na file, mga tool, mga skill, at laki ng system prompt), gamitin ang /context list o /context detail. Tingnan ang Context.

Paano makita ang kasalukuyang paggamit ng token

Gamitin ang mga ito sa chat:

  • /statusemoji‑rich na status card na may session model, paggamit ng context, input/output token ng huling response, at tinatayang gastos (API key lang).
  • /usage off|tokens|full → nag-a-append ng per-response na usage footer sa bawat reply.
  • Nagpe-persist kada session (naka-store bilang responseUsage).
  • Ang OAuth auth ay nagtatago ng gastos (token lang).
  • /usage cost → nagpapakita ng lokal na buod ng gastos mula sa mga log ng sesyon ng OpenClaw.

Iba pang surface:

  • TUI/Web TUI: sinusuportahan ang /status + /usage.
  • CLI: ipinapakita ng openclaw status --usage at openclaw channels list ang mga provider quota window (hindi per-response na gastos).

Pagtatantiya ng gastos (kapag ipinapakita)

Tinatantiya ang mga gastos mula sa pricing config ng iyong model:

models.providers.<provider>.models[].cost

Ito ay USD bawat 1M token para sa input, output, cacheRead, at cacheWrite. Kung walang pricing, tokens lang ang ipinapakita ng OpenClaw. Ang mga OAuth token ever ay hindi nagpapakita ng dolyar na gastos.

Cache TTL at epekto ng pruning

Ang provider prompt caching ay nalalapat lamang sa loob ng cache TTL window. Maaaring opsyonal na patakbuhin ng OpenClaw ang cache-ttl pruning: pinu-prune nito ang session kapag nag-expire ang cache TTL, pagkatapos ay nire-reset ang cache window upang ang mga susunod na request ay muling magamit ang bagong naka-cache na context sa halip na muling i-cache ang buong history. Pinapanatiling mas mababa nito ang mga gastos sa cache write kapag ang isang session ay nananatiling idle lampas sa TTL.

I-configure ito sa Gateway configuration at tingnan ang mga detalye ng behavior sa Session pruning.

Maaaring panatilihing warm ng heartbeat ang cache sa mga idle gap. Kung ang model cache TTL mo ay 1h, ang pagtatakda ng heartbeat interval na bahagyang mas mababa rito (hal., 55m) ay maaaring makaiwas sa muling pag-cache ng buong prompt, na nagpapababa ng mga gastos sa cache write.

Para sa Anthropic API pricing, ang mga cache read ay mas mura kaysa sa input tokens, habang ang mga cache write ay sinisingil sa mas mataas na multiplier. Tingnan ang Anthropic’s prompt caching pricing para sa pinakabagong mga rate at TTL multiplier: https://docs.anthropic.com/docs/build-with-claude/prompt-caching

Halimbawa: panatilihing warm ang 1h cache gamit ang heartbeat

agents:
  defaults:
    model:
      primary: "anthropic/claude-opus-4-6"
    models:
      "anthropic/claude-opus-4-6":
        params:
          cacheRetention: "long"
    heartbeat:
      every: "55m"

Mga tip para bawasan ang token pressure

  • Gamitin ang /compact para i-summarize ang mahahabang session.
  • I-trim ang malalaking tool output sa iyong mga workflow.
  • Panatilihing maikli ang mga skill description (ini-inject ang listahan ng Skills sa prompt).
  • Mas piliin ang mas maliliit na model para sa verbose at exploratory na trabaho.

Tingnan ang Skills para sa eksaktong formula ng overhead ng skill list.