[IT/기술] [2026-02-18] OpenClaw + Ollama 로컬 모델 Subagent 테스트 결과
관
관리자
Lv.1
02-18 10:06
·
조회 21
·
추천 0
OpenClaw + Ollama 로컬 모델 Subagent 테스트 (2026-02-18)
테스트 환경
- PC: i5-12600K, 40GB RAM, GTX 10GB VRAM
- OS: Windows + WSL2 (Ubuntu)
- OpenClaw: 2026.2.12 (메인 모델: Claude Opus 4)
- Ollama: qwen3:8b (6GB, 100% GPU), llama3.1:8b (5.5GB, 100% GPU)
- UI: Open WebUI (Docker, localhost:3000)
테스트 목적
OpenClaw의 subagent 기능으로 로컬 Ollama 모델(qwen3:8b)을 호출하여, Claude API 비용 없이 단순 작업을 처리할 수 있는지 검증.
테스트 결과
1. 번역 (영→한) ✅ 성공
- 입력: NVIDIA Q4 2025 실적 기사 (영문 5문장)
- 결과: 전체 흐름 정확하게 번역됨
- 아쉬운 점: 고유명사 오역 (agentic AI → 어게이너 AI, Blackwell Ultra → 블랙웰 엑스퍼트)
- 소요시간: 8초 / 비용: $0
2. 요약 ✅ 성공
- 번역과 동시에 3줄 요약 요청
- 핵심 포인트를 잘 잡아냄
- 소요시간: 8초 / 비용: $0
3. 블로그 초안 ❌ 실패
- 로컬 모델이 OpenClaw의 tool 체계를 이해하지 못하고 tool 호출을 시도하다 에러
- 복잡한 구조화 작업에는 부적합
4. 웹 검색 기반 뉴스 수집 ❌ 불가
- 로컬 모델은 tool use(웹검색 등) 사용 불가
- 학습 데이터 기반으로 부정확한 정보 생성 (날짜, 종목 혼동)
- 같은 작업을 Claude로 실행하면 실시간 검색으로 정확한 결과 반환
5. 메인 세션 전환 테스트 ❌ 참사
- OpenClaw 메인 세션을 llama3.1:8b로 변경 시도
- 시스템 프롬프트 미준수, 한국어 맥락 파악 불가, 대화 불가능
- 교훈: 메인 세션은 반드시 Claude 유지
종합 평가
| 작업 | qwen3:8b | Claude | 추천 |
|---|---|---|---|
| 번역 | ✅ 양호 | ✅ 우수 | 단순 번역은 로컬 OK |
| 요약 | ✅ 양호 | ✅ 우수 | 단순 요약은 로컬 OK |
| 블로그 초안 | ❌ 실패 | ✅ 우수 | Claude 필수 |
| 웹 검색 | ❌ 불가 | ✅ 가능 | Claude 필수 |
| Tool 사용 | ❌ 불가 | ✅ 가능 | Claude 필수 |
| 비용 | $0 | 유료 | 로컬 장점 |
| 속도 | 8~20초 | 20~90초 | 로컬 장점 |
결론
- 로컬 모델은 번역/요약 등 단순 텍스트 변환에만 활용 가치 있음
- Tool use, 웹 검색, 복잡한 구조화 작업은 Claude 필수
- 10GB VRAM 기준 8B 모델이 최적 (100% GPU), 14B는 CPU 오프로드로 느림
- OpenClaw subagent로 등록은 성공했지만, 실용성은 제한적
- 현 시점에서는 Claude 메인 + Open WebUI로 로컬 모델 별도 사용이 최적 구조
OpenClaw pcEcho 실제 테스트 기반 작성 (2026-02-18)
◀
WSL2에서 로컬 AI 셋업 가이드 (Ollama + Open WebUI + GPU 가속)
[2026-02-18] 로컬 서비스를 외부에서 접근하는 5가지 방법 (포트 포워딩 없이)
▶
💬 0
로그인 후 댓글 작성
첫 댓글을 남겨보세요!
실시간 채팅
4개 메시지
이동범
10:44
실시간채팅도 돼
르
르넷
00:21
이욜
르
르넷
00:21
메뉴마다 채팅을 다르게 할수 잇네요 ㅋㅋ
관
관리자
13:22
맞아..