openclaw: Ollama 통합 문서 추가
- openclaw-ollama.md 신규: ollama launch openclaw, 수동 설정, 권장 모델, 제한사항 - v2026.3.12 플러그인 기반 Ollama/SGLang/vLLM 통합 반영 - 인덱스에 통합 섹션 추가 Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
This commit is contained in:
@@ -23,6 +23,10 @@ tags: [openclaw, agent, ai]
|
||||
13. [[openclaw-automation]] — 자동화
|
||||
14. [[openclaw-security]] — 보안 및 샌드박싱
|
||||
|
||||
## 통합
|
||||
|
||||
- [[openclaw-ollama]] — Ollama 로컬 LLM 통합
|
||||
|
||||
## 관련 문서
|
||||
|
||||
- [[openclaw-agents]] — IronDesk 에이전트 시스템 (DarkRouter, BlackSmith, Stamp, Flux 등)
|
||||
|
||||
77
openclaw/openclaw-ollama.md
Normal file
77
openclaw/openclaw-ollama.md
Normal file
@@ -0,0 +1,77 @@
|
||||
---
|
||||
title: OpenClaw + Ollama 통합
|
||||
updated: 2026-03-18
|
||||
---
|
||||
|
||||
Ollama를 로컬 LLM 런타임으로 사용하여 OpenClaw을 무료로 운영. 네이티브 Ollama API(`/api/chat`) 사용, 스트리밍 및 도구 호출 지원.
|
||||
|
||||
## 빠른 시작
|
||||
|
||||
```bash
|
||||
# Ollama에서 자동 설치+설정+실행
|
||||
ollama launch openclaw
|
||||
|
||||
# 설정만 변경
|
||||
ollama launch openclaw --config
|
||||
|
||||
# 특정 모델 지정
|
||||
ollama launch openclaw --model kimi-k2.5:cloud
|
||||
```
|
||||
|
||||
## 수동 설정
|
||||
|
||||
```bash
|
||||
# 1. 모델 다운로드
|
||||
ollama pull glm-4.7-flash
|
||||
|
||||
# 2. 환경변수
|
||||
export OLLAMA_API_KEY="ollama-local"
|
||||
|
||||
# 3. 모델 선택
|
||||
openclaw models set ollama/glm-4.7-flash
|
||||
```
|
||||
|
||||
## 권장 모델
|
||||
|
||||
**클라우드 모델** (ollama pull 불필요):
|
||||
- `kimi-k2.5:cloud` — 멀티모달 추론
|
||||
- `minimax-m2.5:cloud` — 빠른 코딩/생산성
|
||||
- `glm-5:cloud` — 추론 및 코드 생성
|
||||
|
||||
**로컬 모델**:
|
||||
- `glm-4.7-flash` — 로컬 추론/코드 (~25GB 메모리)
|
||||
|
||||
## 설정 (openclaw.json)
|
||||
|
||||
### 자동 발견
|
||||
|
||||
`OLLAMA_API_KEY="ollama-local"` 설정 시 로컬 모델 자동 인식
|
||||
|
||||
### 명시적 설정 (원격 Ollama 등)
|
||||
|
||||
```json5
|
||||
{
|
||||
models: {
|
||||
providers: {
|
||||
ollama: {
|
||||
baseUrl: "http://ollama-host:11434",
|
||||
apiKey: "ollama-local",
|
||||
api: "ollama",
|
||||
models: [{ id: "gpt-oss:20b", contextWindow: 8192 }]
|
||||
}
|
||||
}
|
||||
}
|
||||
}
|
||||
```
|
||||
|
||||
## 제한사항
|
||||
|
||||
- 원격 Ollama 사용 시 `/v1` OpenAI 호환 URL 사용 금지 — 도구 호출 작동 안 함
|
||||
- OpenAI 호환 모드(`api: "openai-completions"`)에서 도구 호출 불안정
|
||||
- 로컬 모델은 최소 64k 토큰 컨텍스트 윈도우 권장
|
||||
- 추론 모델: 이름에 `r1`, `reasoning`, `think` 포함 시 자동 인식
|
||||
- 비용: 로컬 실행 모든 모델 $0
|
||||
|
||||
## v2026.3.12 업데이트
|
||||
|
||||
Ollama, SGLang, vLLM을 플러그인 기반으로 통합. `/fast` 모드 추가로 모델 인터랙션 속도 개선.
|
||||
Reference in New Issue
Block a user