openai-completions API を使用して vLLM に接続できます。
OpenClaw は、VLLM_API_KEY (サーバーが認証を強制しない場合は任意の値が機能します) でオプトインし、明示的な models.providers.vllm エントリを定義しない場合、vLLM から利用可能なモデルを自動検出することもできます。
クイックスタート
- OpenAI 互換サーバーで vLLM を起動します。
/v1 エンドポイント (例: /v1/models、/v1/chat/completions) を公開する必要があります。 vLLM は通常、次の環境で実行されます。
http://127.0.0.1:8000/v1
- オプトインします (認証が設定されていない場合は、任意の値が機能します):
- モデルを選択します (vLLM モデル ID の 1 つに置き換えます)。
モデル検出 (暗黙的なプロバイダー)
VLLM_API_KEY が設定されている (または認証プロファイルが存在している) のに、models.providers.vllm を定義していない場合、OpenClaw は次のクエリを実行します。
GET http://127.0.0.1:8000/v1/models
models.providers.vllm を明示的に設定した場合、自動検出はスキップされるため、モデルを手動で定義する必要があります。
明示的な構成 (手動モデル)
次の場合に明示的な構成を使用します。- vLLM は別のホスト/ポートで実行されます。
contextWindow/maxTokens値を固定したい。- サーバーには実際の API キーが必要です (またはヘッダーを制御したい場合)。
トラブルシューティング
- サーバーが到達可能であることを確認します。```bash curl http://127.0.0.1:8000/v1/models