オプション A: OpenAI API キー (OpenAI プラットフォーム)
最適な用途: 直接 API アクセスと使用量ベースの課金。 OpenAI ダッシュボードから API キーを取得します。CLI セットアップ
構成スニペット
gpt-5.4 および gpt-5.4-pro (直接の場合)
OpenAI APIの使用法。 OpenClaw は両方を openai/* 応答パス経由で転送します。
オプション B: OpenAI Code (Codex) サブスクリプション
最適な用途: API キーの代わりに ChatGPT/Codex サブスクリプション アクセスを使用します。 Codex クラウドには ChatGPT サインインが必要ですが、Codex CLI は ChatGPT または API キー サインインをサポートしています。CLI セットアップ (Codex OAuth)
構成スニペット (Codex サブスクリプション)
gpt-5.4 がリストされています。オープンクロー
これを ChatGPT/Codex OAuth の使用のために openai-codex/gpt-5.4 にマップします。
トランスポートのデフォルト
OpenClaw はモデルのストリーミングにpi-ai を使用します。 openai/* と
openai-codex/*、デフォルトのトランスポートは "auto" (最初に WebSocket、次に SSE)
フォールバック)。
agents.defaults.models.<provider/model>.params.transport を設定できます。- "sse": SSE を強制する
"websocket": WebSocket を強制する"auto": WebSocket を試してから、SSE にフォールバックします。
openai/* (応答 API) の場合、OpenClaw は次の方法で WebSocket のウォームアップも有効にします。
WebSocket トランスポートが使用される場合のデフォルト (openaiWsWarmup: true)。
関連する OpenAI ドキュメント:
OpenAI WebSocket のウォームアップ
OpenAI のドキュメントでは、ウォームアップはオプションとして説明されています。 OpenClaw はデフォルトで有効になっていますopenai/* WebSocket トランスポート使用時の最初のターンのレイテンシを短縮します。
ウォームアップを無効にする
ウォームアップを明示的に有効にする
OpenAIの優先処理
OpenAI の API は、service_tier=priority を介して優先処理を公開します。で
OpenClaw、agents.defaults.models["openai/<model>"].params.serviceTier を次のように設定します
直接の openai/* 応答リクエストでそのフィールドを渡します。
auto、default、flex、および priority です。
OpenAI Responses のサーバー側圧縮
直接 OpenAI Response モデルの場合 (openai/* と api: "openai-responses" を使用)
baseUrl (api.openai.com 上)、OpenClaw がサーバー側で OpenAI を自動的に有効にするようになりました
圧縮ペイロードのヒント:
store: trueを強制します (モデル互換性がsupportsStore: falseを設定しない場合)context_management: [{ type: "compaction", compact_threshold: ... }]を注入しますデフォルトでは、compact_thresholdはモデルcontextWindow(または80000) の70%です。 利用できない場合)。
サーバー側の圧縮を明示的に有効にする
互換性のあるものにcontext_management インジェクションを強制したい場合にこれを使用します。
応答モデル (例: Azure OpenAI Responses):
カスタムしきい値を使用して有効にする
サーバー側の圧縮を無効にする
responsesServerCompaction は context_management インジェクションのみを制御します。
Direct OpenAI Responses モデルは、互換性が設定されていない限り、引き続き store: true を強制します
supportsStore: false。
注意事項
- モデル参照は常に
provider/modelを使用します (/concepts/models を参照)。 - 認証の詳細と再利用ルールは /concepts/oauth にあります。