diff --git a/openclaw/openclaw-manual.md b/openclaw/openclaw-manual.md index 27e9400..69478f4 100644 --- a/openclaw/openclaw-manual.md +++ b/openclaw/openclaw-manual.md @@ -23,6 +23,10 @@ tags: [openclaw, agent, ai] 13. [[openclaw-automation]] — 자동화 14. [[openclaw-security]] — 보안 및 샌드박싱 +## 통합 + +- [[openclaw-ollama]] — Ollama 로컬 LLM 통합 + ## 관련 문서 - [[openclaw-agents]] — IronDesk 에이전트 시스템 (DarkRouter, BlackSmith, Stamp, Flux 등) diff --git a/openclaw/openclaw-ollama.md b/openclaw/openclaw-ollama.md new file mode 100644 index 0000000..63280da --- /dev/null +++ b/openclaw/openclaw-ollama.md @@ -0,0 +1,77 @@ +--- +title: OpenClaw + Ollama 통합 +updated: 2026-03-18 +--- + +Ollama를 로컬 LLM 런타임으로 사용하여 OpenClaw을 무료로 운영. 네이티브 Ollama API(`/api/chat`) 사용, 스트리밍 및 도구 호출 지원. + +## 빠른 시작 + +```bash +# Ollama에서 자동 설치+설정+실행 +ollama launch openclaw + +# 설정만 변경 +ollama launch openclaw --config + +# 특정 모델 지정 +ollama launch openclaw --model kimi-k2.5:cloud +``` + +## 수동 설정 + +```bash +# 1. 모델 다운로드 +ollama pull glm-4.7-flash + +# 2. 환경변수 +export OLLAMA_API_KEY="ollama-local" + +# 3. 모델 선택 +openclaw models set ollama/glm-4.7-flash +``` + +## 권장 모델 + +**클라우드 모델** (ollama pull 불필요): +- `kimi-k2.5:cloud` — 멀티모달 추론 +- `minimax-m2.5:cloud` — 빠른 코딩/생산성 +- `glm-5:cloud` — 추론 및 코드 생성 + +**로컬 모델**: +- `glm-4.7-flash` — 로컬 추론/코드 (~25GB 메모리) + +## 설정 (openclaw.json) + +### 자동 발견 + +`OLLAMA_API_KEY="ollama-local"` 설정 시 로컬 모델 자동 인식 + +### 명시적 설정 (원격 Ollama 등) + +```json5 +{ + models: { + providers: { + ollama: { + baseUrl: "http://ollama-host:11434", + apiKey: "ollama-local", + api: "ollama", + models: [{ id: "gpt-oss:20b", contextWindow: 8192 }] + } + } + } +} +``` + +## 제한사항 + +- 원격 Ollama 사용 시 `/v1` OpenAI 호환 URL 사용 금지 — 도구 호출 작동 안 함 +- OpenAI 호환 모드(`api: "openai-completions"`)에서 도구 호출 불안정 +- 로컬 모델은 최소 64k 토큰 컨텍스트 윈도우 권장 +- 추론 모델: 이름에 `r1`, `reasoning`, `think` 포함 시 자동 인식 +- 비용: 로컬 실행 모든 모델 $0 + +## v2026.3.12 업데이트 + +Ollama, SGLang, vLLM을 플러그인 기반으로 통합. `/fast` 모드 추가로 모델 인터랙션 속도 개선.