LiteLLM
LiteLLM은 100개가 넘는 모델 제공업체에 통합 API를 제공하는 오픈소스 LLM 게이트웨이입니다. OpenClaw를 LiteLLM 뒤로 라우팅하면 중앙 집중식 비용 추적, 로깅, 그리고 OpenClaw 설정을 바꾸지 않고도 백엔드를 전환할 수 있는 유연성을 얻을 수 있습니다.왜 OpenClaw에서 LiteLLM을 사용할까요?
- 비용 추적: OpenClaw가 모든 모델에서 정확히 얼마를 쓰는지 확인
- 모델 라우팅: 설정 변경 없이 Claude, GPT-4, Gemini, Bedrock 사이 전환
- 가상 키: OpenClaw 전용으로 지출 한도가 있는 키 생성
- 로깅: 디버깅용 전체 요청/응답 로그
- 폴백: 기본 제공업체가 다운되면 자동 페일오버
빠른 시작
온보딩 사용
수동 설정
- LiteLLM Proxy를 시작합니다.
- OpenClaw가 LiteLLM을 가리키도록 설정합니다.
설정
환경 변수
설정 파일
가상 키
지출 한도를 적용한 OpenClaw 전용 키를 만드세요.LITELLM_API_KEY로 사용하세요.
모델 라우팅
LiteLLM은 모델 요청을 서로 다른 백엔드로 라우팅할 수 있습니다. LiteLLM의config.yaml에서 설정하세요.
claude-opus-4-6을 요청하고, 실제 라우팅은 LiteLLM이 처리합니다.
사용량 확인
LiteLLM의 대시보드나 API로 사용량을 확인하세요.참고 사항
- LiteLLM은 기본적으로
http://localhost:4000에서 실행됩니다. - OpenClaw는 OpenAI 호환
/v1/chat/completions엔드포인트로 연결합니다. - 모든 OpenClaw 기능은 LiteLLM을 통해서도 동작하며 제한 사항이 없습니다.