Files
obsidian/openclaw/openclaw-ollama.md
kappa c5de77822f openclaw: Ollama 통합 문서 추가
- openclaw-ollama.md 신규: ollama launch openclaw, 수동 설정, 권장 모델, 제한사항
- v2026.3.12 플러그인 기반 Ollama/SGLang/vLLM 통합 반영
- 인덱스에 통합 섹션 추가

Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
2026-03-18 17:05:45 +09:00

1.8 KiB

title, updated
title updated
OpenClaw + Ollama 통합 2026-03-18

Ollama를 로컬 LLM 런타임으로 사용하여 OpenClaw을 무료로 운영. 네이티브 Ollama API(/api/chat) 사용, 스트리밍 및 도구 호출 지원.

빠른 시작

# Ollama에서 자동 설치+설정+실행
ollama launch openclaw

# 설정만 변경
ollama launch openclaw --config

# 특정 모델 지정
ollama launch openclaw --model kimi-k2.5:cloud

수동 설정

# 1. 모델 다운로드
ollama pull glm-4.7-flash

# 2. 환경변수
export OLLAMA_API_KEY="ollama-local"

# 3. 모델 선택
openclaw models set ollama/glm-4.7-flash

권장 모델

클라우드 모델 (ollama pull 불필요):

  • kimi-k2.5:cloud — 멀티모달 추론
  • minimax-m2.5:cloud — 빠른 코딩/생산성
  • glm-5:cloud — 추론 및 코드 생성

로컬 모델:

  • glm-4.7-flash — 로컬 추론/코드 (~25GB 메모리)

설정 (openclaw.json)

자동 발견

OLLAMA_API_KEY="ollama-local" 설정 시 로컬 모델 자동 인식

명시적 설정 (원격 Ollama 등)

{
  models: {
    providers: {
      ollama: {
        baseUrl: "http://ollama-host:11434",
        apiKey: "ollama-local",
        api: "ollama",
        models: [{ id: "gpt-oss:20b", contextWindow: 8192 }]
      }
    }
  }
}

제한사항

  • 원격 Ollama 사용 시 /v1 OpenAI 호환 URL 사용 금지 — 도구 호출 작동 안 함
  • OpenAI 호환 모드(api: "openai-completions")에서 도구 호출 불안정
  • 로컬 모델은 최소 64k 토큰 컨텍스트 윈도우 권장
  • 추론 모델: 이름에 r1, reasoning, think 포함 시 자동 인식
  • 비용: 로컬 실행 모든 모델 $0

v2026.3.12 업데이트

Ollama, SGLang, vLLM을 플러그인 기반으로 통합. /fast 모드 추가로 모델 인터랙션 속도 개선.