Paggamit ng token at mga gastos¶
Sinusubaybayan ng OpenClaw ang tokens, hindi mga character. Ang mga token ay nakadepende sa modelo, ngunit karamihan OpenAI-style models average ~4 characters per token for English text.
Paano binubuo ang system prompt¶
Binubuo ng OpenClaw ang sarili nitong system prompt sa bawat pagtakbo. Kabilang dito ang:
- Listahan ng mga tool + maiikling paglalarawan
- Listahan ng Skills (metadata lang; ang mga instruction ay nilo-load on demand gamit ang
read) - Mga instruction para sa self-update
- Workspace + bootstrap files (
AGENTS.md,SOUL.md,TOOLS.md,IDENTITY.md,USER.md,HEARTBEAT.md,BOOTSTRAP.mdwhen new). Large files are truncated byagents.defaults.bootstrapMaxChars(default: 20000). - Oras (UTC + timezone ng user)
- Mga reply tag + heartbeat behavior
- Metadata ng runtime (host/OS/model/pag-iisip)
Tingnan ang buong breakdown sa System Prompt.
Ano ang binibilang sa context window¶
Lahat ng natatanggap ng model ay binibilang sa context limit:
- System prompt (lahat ng seksyong nakalista sa itaas)
- History ng conversation (mga mensahe ng user + assistant)
- Mga tool call at mga resulta ng tool
- Mga attachment/transcript (mga imahe, audio, file)
- Mga compaction summary at pruning artifact
- Mga provider wrapper o safety header (hindi nakikita, pero binibilang pa rin)
Para sa praktikal na breakdown (bawat na-inject na file, mga tool, mga skill, at laki ng system prompt), gamitin ang /context list o /context detail. Tingnan ang Context.
Paano makita ang kasalukuyang paggamit ng token¶
Gamitin ang mga ito sa chat:
/status→ emoji‑rich na status card na may session model, paggamit ng context, input/output token ng huling response, at tinatayang gastos (API key lang)./usage off|tokens|full→ nag-a-append ng per-response na usage footer sa bawat reply.- Nagpe-persist kada session (naka-store bilang
responseUsage). - Ang OAuth auth ay nagtatago ng gastos (token lang).
/usage cost→ nagpapakita ng lokal na buod ng gastos mula sa mga log ng sesyon ng OpenClaw.
Iba pang surface:
- TUI/Web TUI: sinusuportahan ang
/status+/usage. - CLI: ipinapakita ng
openclaw status --usageatopenclaw channels listang mga provider quota window (hindi per-response na gastos).
Pagtatantiya ng gastos (kapag ipinapakita)¶
Tinatantiya ang mga gastos mula sa pricing config ng iyong model:
models.providers.<provider>.models[].cost
Ito ay USD bawat 1M token para sa input, output, cacheRead, at
cacheWrite. Kung walang pricing, tokens lang ang ipinapakita ng OpenClaw. Ang mga OAuth token
ever ay hindi nagpapakita ng dolyar na gastos.
Cache TTL at epekto ng pruning¶
Ang provider prompt caching ay nalalapat lamang sa loob ng cache TTL window. Maaaring opsyonal na patakbuhin ng OpenClaw ang cache-ttl pruning: pinu-prune nito ang session kapag nag-expire ang cache TTL, pagkatapos ay nire-reset ang cache window upang ang mga susunod na request ay muling magamit ang bagong naka-cache na context sa halip na muling i-cache ang buong history. Pinapanatiling mas mababa nito ang mga gastos sa cache write kapag ang isang session ay nananatiling idle lampas sa TTL.
I-configure ito sa Gateway configuration at tingnan ang mga detalye ng behavior sa Session pruning.
Maaaring panatilihing warm ng heartbeat ang cache sa mga idle gap. Kung ang model cache TTL
mo ay 1h, ang pagtatakda ng heartbeat interval na bahagyang mas mababa rito (hal., 55m) ay maaaring makaiwas sa muling pag-cache ng buong prompt, na nagpapababa ng mga gastos sa cache write.
Para sa Anthropic API pricing, ang mga cache read ay mas mura kaysa sa input tokens, habang ang mga cache write ay sinisingil sa mas mataas na multiplier. Tingnan ang Anthropic’s prompt caching pricing para sa pinakabagong mga rate at TTL multiplier: https://docs.anthropic.com/docs/build-with-claude/prompt-caching
Halimbawa: panatilihing warm ang 1h cache gamit ang heartbeat¶
agents:
defaults:
model:
primary: "anthropic/claude-opus-4-6"
models:
"anthropic/claude-opus-4-6":
params:
cacheRetention: "long"
heartbeat:
every: "55m"
Mga tip para bawasan ang token pressure¶
- Gamitin ang
/compactpara i-summarize ang mahahabang session. - I-trim ang malalaking tool output sa iyong mga workflow.
- Panatilihing maikli ang mga skill description (ini-inject ang listahan ng Skills sa prompt).
- Mas piliin ang mas maliliit na model para sa verbose at exploratory na trabaho.
Tingnan ang Skills para sa eksaktong formula ng overhead ng skill list.