メモリ¶
OpenClaw メモリは エージェント ワークスペース内のプレーンな Markdown です。ファイルが信頼できる唯一の情報源であり、モデルはディスクに書き込まれた内容だけを「記憶」します。 ファイルは真実の ソースです。モデルはディスクに書き込まれたものだけを「記憶」します。
メモリ検索ツールは、アクティブなメモリプラグインによって提供されます (デフォルト:
memory-core )。 メモリ検索ツールは、アクティブなメモリ プラグイン(デフォルト: memory-core)によって提供されます。メモリ プラグインは plugins.slots.memory = "none" で無効化できます。
メモリ ファイル(Markdown)¶
デフォルトのワークスペース レイアウトでは、2 つのメモリ レイヤーを使用します。
memory/YYYY-MM-DD.md- 日次ログ(追記のみ)。
- セッション開始時に「今日+昨日」を読み込みます。
MEMORY.md(任意)- 厳選された長期メモリ。
- メインのプライベート セッションでのみ読み込み(グループ コンテキストでは決して読み込みません)。
これらのファイルはワークスペース(agents.defaults.workspace、デフォルト ~/.openclaw/workspace)配下にあります。完全なレイアウトについては Agent workspace を参照してください。 完全なレイアウトについては、Agent workspaceを参照してください。
メモリを書き込むタイミング¶
- 判断、好み、永続的な事実は
MEMORY.mdに書き込みます。 - 日々のメモや実行中のコンテキストは
memory/YYYY-MM-DD.mdに書き込みます。 - 誰かが「これを覚えて」と言ったら、書き込みます(RAM に保持しません)。
- この領域はまだ進化しています。 この領域は現在も進化中です。モデルにメモリ保存を促すと役立ちます。モデルは何をすべきか理解しています。
- 何かを確実に残したい場合は、ボットにメモリへ書き込むよう依頼してください。
自動メモリ フラッシュ(プレコンパクション ping)¶
セッションが 自動コンパクションに近づく と、OpenClaw は サイレントなエージェント ターン をトリガーし、コンテキストが圧縮される 前 に永続メモリを書き込むようモデルに促します。デフォルトのプロンプトではモデルが 返信してもよい と明示されていますが、通常は NO_REPLY が正しい応答となり、ユーザーにこのターンが表示されることはありません。 デフォルトのプロンプトでは、モデル may reply、
と明示的に表示されますが、通常 NO_REPLY は正しい応答であるため、ユーザーはこのターンを見ることはありません。
これは agents.defaults.compaction.memoryFlush によって制御されます。
{
agents: {
defaults: {
compaction: {
reserveTokensFloor: 20000,
memoryFlush: {
enabled: true,
softThresholdTokens: 4000,
systemPrompt: "Session nearing compaction. Store durable memories now.",
prompt: "Write any lasting notes to memory/YYYY-MM-DD.md; reply with NO_REPLY if nothing to store.",
},
},
},
},
}
詳細:
- ソフトしきい値: セッションのトークン推定値が
contextWindow - reserveTokensFloor - softThresholdTokensを超えるとフラッシュがトリガーされます。 - デフォルトでサイレント: プロンプトに
NO_REPLYが含まれるため、何も配信されません。 - 2 つのプロンプト: ユーザー プロンプトとシステム プロンプトがリマインダーを追加します。
- コンパクション サイクルごとに 1 回のフラッシュ(
sessions.jsonで追跡)。 - ワークスペースが書き込み可能である必要: セッションが
workspaceAccess: "ro"または"none"でサンドボックス化されて実行されている場合、フラッシュはスキップされます。
コンパクションの完全なライフサイクルについては、 Session management + compaction を参照してください。
ベクター メモリ検索¶
OpenClaw は MEMORY.md と memory/*.md 上に小さなベクター インデックスを構築でき、表現が異なっても関連ノートを意味検索で見つけられます。
デフォルト:
- デフォルトで有効。
- メモリ ファイルの変更を監視(デバウンス)。
- デフォルトでリモート埋め込みを使用します。 デフォルトではリモート埋め込みを使用。
memorySearch.providerが設定されていない場合、OpenClaw は自動選択します: 1.memorySearch.local.modelPathが設定され、ファイルが存在する場合はlocal。 2. OpenAI のキーを解決できる場合はopenai。 3. Gemini のキーを解決できる場合はgemini。 4. Voyage のキーを解決できる場合はvoyage。 5. それ以外の場合、設定されるまでメモリ検索は無効のままです。 - ローカル モードは node-llama-cpp を使用し、
pnpm approve-buildsが必要になる場合があります。 - 利用可能な場合、sqlite-vec を使用して SQLite 内のベクター検索を高速化します。
リモート埋め込み機能 埋め込みプロバイダにAPIキーが必要です。 OpenClaw
は、認証プロファイル、models.providers.*.apiKey、または環境
変数からキーを解決します。 Codex OAuthはチャット/補完のみをカバーしており、
メモリ検索の埋め込みを満たしていません。 Geminiの場合は、GEMINI_API_KEY または
models.providers.google.apiKey を使用します。 Voyage では、VOYAGE_API_KEY または
models.providers.voyage.apiKey を使用してください。 カスタム OpenAI 互換のエンドポイントを使用する場合、
memorySearch.remote.apiKey (および memorySearch.remote.headers ) を設定します。
QMD バックエンド(実験的)¶
組み込みの SQLite インデクサーを QMD に置き換えるには memory.backend = "qmd" を設定します。QMD は、BM25+ベクター+再ランキングを組み合わせたローカル ファーストの検索サイドカーです。Markdown は信頼できる唯一の情報源のままで、OpenClaw は取得のために QMD を呼び出します。要点は次のとおりです。 Markdownは真実の源泉であり続けます。オープンクローの貝殻
検索のためにQMDに移動します。 キーポイント:
前提条件
- デフォルトで無効になっています。 デフォルトでは無効。設定ごとにオプトイン(
memory.backend = "qmd")。 - QMD CLI を別途インストール(
bun install -g https://github.com/tobi/qmdまたはリリースを取得)し、qmdバイナリがゲートウェイのPATHにあることを確認します。 - QMD には拡張を許可する SQLite ビルドが必要です(macOS では
brew install sqlite)。 - QMD は Bun+
node-llama-cppにより完全にローカルで動作し、初回使用時に HuggingFace から GGUF モデルを自動ダウンロードします(別途 Ollama デーモンは不要)。 - ゲートウェイは、
XDG_CONFIG_HOMEとXDG_CACHE_HOMEを設定することで、~/.openclaw/agents/<agentId>/qmd/配下の自己完結型 XDG ホームで QMD を実行します。 - OSサポート:Bun + SQLiteが インストールされるとmacOSとLinuxはボックスから動作します。 WindowsはWSL2経由でサポートされています。
サイドカーの実行方法
- ゲートウェイは、
~/.openclaw/agents/<agentId>/qmd/配下に自己完結型の QMD ホーム(設定+キャッシュ+sqlite DB)を書き込みます。 - コレクションは
memory.qmd.paths(およびデフォルトのワークスペース メモリ ファイル)からqmd collection addで作成され、その後qmd update+qmd embedが起動時および設定可能な間隔(memory.qmd.update.interval、デフォルト 5 分)で実行されます。 - 起動時のリフレッシュは、チャット起動をブロックしないようデフォルトでバックグラウンド実行になりました。従来のブロッキング動作を維持するには
memory.qmd.update.waitForBootSync = trueを設定します。 - 検索は
qmd query --json経由で実行されます。QMD が失敗するかバイナリが見つからない場合、OpenClaw は自動的に組み込みの SQLite マネージャーへフォールバックし、メモリ ツールは引き続き動作します。 QMD に失敗した場合やバイナリが欠落している場合、 OpenClawは自動的に組み込みSQLiteマネージャに落ちるため、メモリツール が動作し続けます。 - OpenClaw は現時点で QMD の埋め込みバッチ サイズ調整を公開していません。バッチ挙動は QMD 自身が制御します。
- 初回検索は遅い場合があります: 初回の
qmd query実行時に、QMD がローカル GGUF モデル(再ランキング/クエリ拡張)をダウンロードすることがあります。 - OpenClaw は QMD 実行時に
XDG_CONFIG_HOME/XDG_CACHE_HOMEを自動設定します。 -
手動でモデルを事前ダウンロード(同じインデックスをウォームアップ)したい場合は、エージェントの XDG ディレクトリを使ってワンオフ クエリを実行してください。
OpenClawのQMD状態はstate dir (デフォルトは
~/.openclaw)の下にあります。 OpenClaw の QMD 状態は state ディレクトリ(デフォルト~/.openclaw)配下にあります。同一の XDG 変数をエクスポートすることで、qmdを同じインデックスに向けられます。```bash
Pick the same state dir OpenClaw uses¶
STATE_DIR="${OPENCLAW_STATE_DIR:-$HOME/.openclaw}" if [ -d "$HOME/.moltbot" ] && [ ! -d "$HOME/.openclaw" ] \ && [ -z "${OPENCLAW_STATE_DIR:-}" ]; then STATE_DIR="$HOME/.moltbot" fi
export XDG_CONFIG_HOME="$STATE_DIR/agents/main/qmd/xdg-config" export XDG_CACHE_HOME="$STATE_DIR/agents/main/qmd/xdg-cache"
(Optional) force an index refresh + embeddings¶
qmd update qmd embed
Warm up / trigger first-time model downloads¶
qmd query "test" -c memory-root --json >/dev/null 2>&1 ```
設定サーフェス(memory.qmd.*)
command(デフォルトqmd): 実行ファイル パスを上書き。includeDefaultMemory(デフォルトtrue):MEMORY.md+memory/**/*.mdを自動インデックス。paths[]: 追加のディレクトリ/ファイルを追加(path、任意のpattern、任意の安定name)。sessions: セッション JSONL のインデックス化にオプトイン(enabled、retentionDays、exportDir)。update: リフレッシュ頻度とメンテナンス実行を制御(interval、debounceMs、onBoot、waitForBootSync、embedInterval、commandTimeoutMs、updateTimeoutMs、embedTimeoutMs)。limits: リコール ペイロードをクランプ(maxResults、maxSnippetChars、maxInjectedChars、timeoutMs)。scope:session.sendPolicyと同一のスキーマ。デフォルトは DM のみ(denyはすべて、allowはダイレクト チャット)。グループ/チャンネルで QMD ヒットを表示するには緩和します。 デフォルトは DMのみ (denyall,allowdirectチャット) です。グループ/チャンネルで QMD がヒットするように緩めます。scopeによって検索が拒否されると、OpenClaw は派生したchannel/chatTypeを含む警告をログに記録するため、空の結果をデバッグしやすくなります。- ワークスペース外から取得したスニペットは、
memory_searchの結果でqmd/<collection>/<relative-path>として表示されます。memory_getはそのプレフィックスを理解し、設定された QMD コレクション ルートから読み取ります。 memory.qmd.sessions.enabled = trueの場合、OpenClaw はサニタイズ済みのセッション トランスクリプト(ユーザー/アシスタントのターン)を~/.openclaw/agents/<id>/qmd/sessions/配下の専用 QMD コレクションにエクスポートし、組み込み SQLite インデックスに触れずにmemory_searchが最近の会話を想起できるようにします。memory_searchスニペットには、memory.citationsがauto/onの場合、Source: <path#line>フッターが含まれます。memory.citations = "off"を設定するとパス メタデータを内部扱いにできます(エージェントはmemory_getのためにパスを受け取りますが、スニペット本文からはフッターが省かれ、システム プロンプトで引用しないよう警告されます)。
例
memory: {
backend: "qmd",
citations: "auto",
qmd: {
includeDefaultMemory: true,
update: { interval: "5m", debounceMs: 15000 },
limits: { maxResults: 6, timeoutMs: 4000 },
scope: {
default: "deny",
rules: [{ action: "allow", match: { chatType: "direct" } }]
},
paths: [
{ name: "docs", path: "~/notes", pattern: "**/*.md" }
]
}
}
引用とフォールバック
memory.citationsは、バックエンド(auto/on/off)に関わらず適用されます。qmdが実行されると、診断でどのエンジンが結果を提供したか分かるようにstatus().backend = "qmd"をタグ付けします。QMD サブプロセスが終了するか JSON 出力を解析できない場合、検索マネージャーは警告をログに記録し、QMD が回復するまで組み込みプロバイダー(既存の Markdown 埋め込み)を返します。 17. QMD サブプロセスが終了した場合、または JSON 出力を解析できない場合、検索マネージャーは警告をログに記録し、QMD が復旧するまで組み込みプロバイダー(既存の Markdown 埋め込み)を返します。
追加のメモリ パス¶
デフォルトのワークスペース レイアウト外にある Markdown ファイルをインデックスしたい場合は、明示的なパスを追加します。
agents: {
defaults: {
memorySearch: {
extraPaths: ["../team-docs", "/srv/shared-notes/overview.md"]
}
}
}
注記:
- パスは絶対パスまたはワークスペース相対にできます。
- ディレクトリは
.mdファイルを再帰的にスキャンします。 - インデックスされるのは Markdown ファイルのみです。
- シンボリックリンク(ファイル/ディレクトリ)は無視されます。
Gemini 埋め込み(ネイティブ)¶
Gemini の埋め込み API を直接使用するには、プロバイダーを gemini に設定します。
agents: {
defaults: {
memorySearch: {
provider: "gemini",
model: "gemini-embedding-001",
remote: {
apiKey: "YOUR_GEMINI_API_KEY"
}
}
}
}
注記:
remote.baseUrlは任意(デフォルトは Gemini API のベース URL)。remote.headersで必要に応じて追加ヘッダーを設定できます。- デフォルト モデル:
gemini-embedding-001。
カスタム OpenAI 互換エンドポイント(OpenRouter、vLLM、またはプロキシ)を使用したい場合は、OpenAI プロバイダーで remote 設定を使用できます。
agents: {
defaults: {
memorySearch: {
provider: "openai",
model: "text-embedding-3-small",
remote: {
baseUrl: "https://api.example.com/v1/",
apiKey: "YOUR_OPENAI_COMPAT_API_KEY",
headers: { "X-Custom-Header": "value" }
}
}
}
}
API キーを設定したくない場合は memorySearch.provider = "local" を使用するか、memorySearch.fallback = "none" を設定してください。
フォールバック:
memorySearch.fallbackはopenai、gemini、local、またはnoneにできます。- フォールバック プロバイダーは、プライマリの埋め込みプロバイダーが失敗した場合にのみ使用されます。
バッチ インデックス(OpenAI+Gemini):
- OpenAIとGeminiの埋め込みでデフォルトで有効になります。 OpenAI と Gemini の埋め込みではデフォルトで有効。無効にするには
agents.defaults.memorySearch.remote.batch.enabled = falseを設定します。 - デフォルトではバッチ完了を待機します。必要に応じて
remote.batch.wait、remote.batch.pollIntervalMs、remote.batch.timeoutMinutesを調整してください。 - 並列で送信するバッチ ジョブ数は
remote.batch.concurrencyで制御します(デフォルト: 2)。 - バッチ モードは
memorySearch.provider = "openai"または"gemini"の場合に適用され、対応する API キーを使用します。 - Gemini のバッチ ジョブは非同期埋め込みバッチ エンドポイントを使用し、Gemini Batch API の提供が必要です。
OpenAI バッチが高速かつ低コストな理由:
- 大規模なバックフィルでは、単一のバッチ ジョブで多数の埋め込みリクエストを送信し、非同期処理できるため、OpenAI は通常、当社がサポートする中で最速の選択肢です。
- OpenAI は Batch API ワークロード向けの割引価格を提供しているため、同じリクエストを同期送信するよりも大規模なインデックス作成は安価になることが多いです。
- 詳細は OpenAI Batch API のドキュメントと価格をご覧ください:
- https://platform.openai.com/docs/api-reference/batch
- https://platform.openai.com/pricing
設定例:
agents: {
defaults: {
memorySearch: {
provider: "openai",
model: "text-embedding-3-small",
fallback: "openai",
remote: {
batch: { enabled: true, concurrency: 2 }
},
sync: { watch: true }
}
}
}
ツール:
memory_search— ファイル+行範囲付きのスニペットを返します。memory_get— パス指定でメモリ ファイルの内容を読み取ります。
ローカル モード:
agents.defaults.memorySearch.provider = "local"を設定します。agents.defaults.memorySearch.local.modelPath(GGUF またはhf:URI)を指定します。- 任意: リモート フォールバックを避けるには
agents.defaults.memorySearch.fallback = "none"を設定します。
メモリ ツールの仕組み¶
memory_searchは、MEMORY.md+memory/**/*.mdから Markdown チャンク(目標 ~400 トークン、80 トークン重なり)を意味検索します。スニペット本文(約 700 文字上限)、ファイル パス、行範囲、スコア、プロバイダー/モデル、ローカル→リモート埋め込みへのフォールバック有無を返します。ファイル全体のペイロードは返しません。 スニペットテキスト (最大 700 文字)、ファイルパス、行範囲、スコア、プロバイダー/モデル、およびローカル → リモート埋め込みから戻ったかどうかを返します。 完全なファイルペイロードは返されません。memory_getは、特定のメモリ Markdown ファイル(ワークスペース相対)を、開始行と N 行の指定付きで読み取ります。MEMORY.md/memory/外のパスは拒否されます。MEMORY.md/memory/以外のパスは拒否されます。- 両ツールは、エージェントに対して
memorySearch.enabledが true に解決された場合にのみ有効です。
何がインデックスされるか(およびタイミング)¶
- ファイル種別: Markdown のみ(
MEMORY.md、memory/**/*.md)。 - インデックス保存先: エージェントごとの SQLite(
~/.openclaw/memory/<agentId>.sqlite、agents.defaults.memorySearch.store.pathで設定可能、{agentId}トークンをサポート)。 - Freshness: watcher on
MEMORY.md+memory/はインデックスを汚します(デバウンス1.5)。 同期は、セッション開始時、検索時、または間隔でスケジュールされ、非同期で実行されます。 セッショントランスクリプトは、バックグラウンド同期をトリガーするためにデルタ閾値を使用します。 - 再インデックス トリガー: インデックスは プロバイダー/モデル+エンドポイント フィンガープリント+チャンク化パラメータ を保存します。いずれかが変更されると、OpenClaw は自動的に全体をリセットして再インデックスします。 これらの変更があった場合、OpenClawは自動的にストア全体をリセットして再インデックスを作成します。
ハイブリッド検索(BM25+ベクター)¶
有効時、OpenClaw は次を組み合わせます。
- ベクター類似度(意味一致、表現が異なっても可)
- BM25 キーワード関連度(ID、環境変数、コード シンボルなどの完全一致)
プラットフォームで全文検索が利用できない場合、OpenClaw はベクターのみの検索にフォールバックします。
なぜハイブリッドか¶
ベクター検索は「同じ意味」を捉えるのが得意です。
- 「Mac Studio gateway host」 vs 「ゲートウェイを実行しているマシン」
- 「ファイル更新をデバウンス」 vs 「毎回の書き込みでインデックスしない」
しかし、正確で高信号のトークンでは弱い場合があります。
- ID(
a828e60、b3b9895a…) - コード シンボル(
memorySearch.query.hybrid) - エラー文字列(「sqlite-vec unavailable」)
BM25(フルテキスト)は正確なトークンで強く、言い換えで弱くなります。 ハイブリッド検索は実用的な中間地点です:両方の検索信号を使用すると、「自然言語」クエリと「干し草の中の針」クエリの両方に対して 良い結果が得られます。
結果のマージ方法(現在の設計)¶
実装スケッチ:
- 両側から候補プールを取得:
- ベクター: コサイン類似度の上位
maxResults * candidateMultiplier。 - BM25: FTS5 の BM25 ランク上位
maxResults * candidateMultiplier(低いほど良い)。
- BM25 ランクを 0..1 程度のスコアに変換:
textScore = 1 / (1 + max(0, bm25Rank))
- チャンク ID で候補を和集合し、重み付きスコアを計算:
finalScore = vectorWeight * vectorScore + textWeight * textScore
注記:
vectorWeight+textWeightは設定解決時に 1.0 に正規化され、重みが割合として振る舞います。- 埋め込みが利用不可(またはプロバイダーがゼロ ベクターを返す)場合でも、BM25 を実行してキーワード一致を返します。
- FTS5 を作成できない場合、ベクターのみ検索を維持します(致命的エラーにはしません)。
これは「IR 理論的に完璧」ではありませんが、シンプルで高速で、実ノートに対する再現率/適合率を改善する傾向があります。将来的に高度化するなら、Reciprocal Rank Fusion(RRF)や、混合前のスコア正規化(min/max や z-score)が一般的な次の一手です。 我々は後で空想を得たい場合は、一般的な次のステップは、混合する前に相互ランクフュージョン(RRF)またはスコア正規化 (最小/最大またはz-スコア)です。
設定:
agents: {
defaults: {
memorySearch: {
query: {
hybrid: {
enabled: true,
vectorWeight: 0.7,
textWeight: 0.3,
candidateMultiplier: 4
}
}
}
}
}
埋め込みキャッシュ¶
OpenClaw は SQLite に チャンク埋め込み をキャッシュでき、再インデックスや頻繁な更新(特にセッション トランスクリプト)で未変更テキストの再埋め込みを避けられます。
設定:
agents: {
defaults: {
memorySearch: {
cache: {
enabled: true,
maxEntries: 50000
}
}
}
}
セッション メモリ検索(実験的)¶
任意で セッション トランスクリプト をインデックスし、memory_search 経由で表示できます。
この機能は実験フラグの背後にあります。
これは実験的な旗の後ろにゲートされている。
agents: {
defaults: {
memorySearch: {
experimental: { sessionMemory: true },
sources: ["memory", "sessions"]
}
}
}
注記:
- セッション インデックスは オプトイン(デフォルト無効)。
- セッション更新はデバウンスされ、デルタしきい値を超えると 非同期でインデックス されます(ベストエフォート)。
memory_searchはインデックス待ちでブロックしません。バックグラウンド同期が完了するまで結果は多少古い可能性があります。- 結果は引き続きスニペットのみを含みます。
memory_getはメモリ ファイルに限定されたままです。 - セッション インデックスはエージェントごとに分離されます(そのエージェントのセッション ログのみが対象)。
- セッション ログはディスク上(
~/.openclaw/agents/<agentId>/sessions/*.jsonl)に保存されます。ファイルシステムにアクセスできるプロセス/ユーザーは読み取れるため、ディスク アクセスを信頼境界として扱ってください。より厳密な分離が必要な場合は、エージェントを別の OS ユーザーやホストで実行してください。 ファイルシステムへのアクセスを持つプロセス/ユーザは、それらを読み取ることができるので、ディスクアクセスを信頼の境界として扱います。 より厳格な分離を行うには、別々の OS ユーザーまたはホストでエージェントを実行します。
デルタしきい値(デフォルト表示):
agents: {
defaults: {
memorySearch: {
sync: {
sessions: {
deltaBytes: 100000, // ~100 KB
deltaMessages: 50 // JSONL lines
}
}
}
}
}
SQLite ベクター高速化(sqlite-vec)¶
sqlite-vec 拡張が利用可能な場合、OpenClaw は埋め込みを SQLite 仮想テーブル(vec0)に保存し、データベース内でベクター距離クエリを実行します。これにより、すべての埋め込みを JS に読み込まずに高速検索が可能になります。 これにより、JSにすべての埋め込みをロードすることなく、検索が高速になります。
設定(任意):
agents: {
defaults: {
memorySearch: {
store: {
vector: {
enabled: true,
extensionPath: "/path/to/sqlite-vec"
}
}
}
}
}
注記:
enabledはデフォルトで true。無効化すると、保存済み埋め込みに対するプロセス内コサイン類似度にフォールバックします。- sqlite-vec 拡張が欠如している、または読み込みに失敗した場合、OpenClaw はエラーをログに記録し、JS フォールバック(ベクター テーブルなし)で継続します。
extensionPathは同梱の sqlite-vec パスを上書きします(カスタム ビルドや非標準インストール場所に有用)。
ローカル 埋め込みの自動ダウンロード¶
- デフォルトのローカル 埋め込みモデル:
hf:ggml-org/embeddinggemma-300M-GGUF/embeddinggemma-300M-Q8_0.gguf(約 0.6 GB)。 memorySearch.provider = "local"の場合、node-llama-cppはmodelPathを解決します。GGUF が見つからない場合、キャッシュ(または設定時はlocal.modelCacheDir)に 自動ダウンロード してから読み込みます。ダウンロードは再試行時に再開されます。 ダウンロードは再試行時に再開されます。- ネイティブ ビルド要件:
pnpm approve-buildsを実行し、node-llama-cppを選択してからpnpm rebuild node-llama-cpp。 - フォールバック: ローカル セットアップに失敗し、
memorySearch.fallback = "openai"の場合、リモート 埋め込み(上書きがなければopenai/text-embedding-3-small)に自動切替し、その理由を記録します。
カスタム OpenAI 互換エンドポイントの例¶
agents: {
defaults: {
memorySearch: {
provider: "openai",
model: "text-embedding-3-small",
remote: {
baseUrl: "https://api.example.com/v1/",
apiKey: "YOUR_REMOTE_API_KEY",
headers: {
"X-Organization": "org-id",
"X-Project": "project-id"
}
}
}
}
}
注記:
remote.*はmodels.providers.openai.*より優先されます。remote.headersは OpenAI ヘッダーとマージされ、キー競合時はリモートが優先されます。OpenAI のデフォルトを使用するにはremote.headersを省略してください。remote.headersを省略して、OpenAI のデフォルトを使用します。