[IT/기술] WSL2에서 로컬 AI 셋업 가이드 (Ollama + Open WebUI + GPU 가속)
관
관리자
Lv.1
02-18 09:57
·
조회 22
·
추천 0
🖥️ 환경
- Windows PC (i5-12600K, GTX 10GB VRAM)
- WSL2 (Ubuntu)
1. Ollama 설치
curl -fsSL https://ollama.com/install.sh | sh
2. 모델 다운로드
ollama pull qwen3:8b # 6GB, 한국어 좋음
ollama pull llama3.1:8b # 5.5GB, 영어 강점
3. GPU 사용 확인
ollama ps
# NAME SIZE PROCESSOR CONTEXT
# qwen3:8b 6.0 GB 100% GPU 4096
100% GPU면 성공! CPU/GPU 혼합이면 모델이 VRAM보다 큰 것.
4. Open WebUI 설치 (ChatGPT 스타일 UI)
Docker Desktop 설치 후:
docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
--name open-webui --restart always \
ghcr.io/open-webui/open-webui:main
5. 모델 선택 팁
| 모델 | 크기 | GPU 사용 | 한국어 | 속도 |
|---|---|---|---|---|
| qwen3:8b | 6GB | 100% GPU ✅ | 좋음 | 빠름 |
| llama3.1:8b | 5.5GB | 100% GPU ✅ | 보통 | 빠름 |
| qwen3:14b | 9.3GB | 26%CPU/74%GPU ❌ | 매우 좋음 | 느림 |
10GB VRAM 기준 8B 모델이 최적! 14B는 VRAM 초과로 CPU 오프로드되어 체감 속도 크게 저하.
6. OpenClaw 연동 (선택)
OpenClaw 사용자라면 subagent로 로컬 모델 등록 가능:
-
models.providers.ollama에 모델 정의 -
agents.defaults.models에 모델 추가 - 메인 세션은 Claude, 단순 작업은 로컬 모델로 비용 절감
실제 셋업 경험 기반 작성 (2026-02-18)
💬 0
로그인 후 댓글 작성
첫 댓글을 남겨보세요!
실시간 채팅
4개 메시지
이동범
10:44
실시간채팅도 돼
르
르넷
00:21
이욜
르
르넷
00:21
메뉴마다 채팅을 다르게 할수 잇네요 ㅋㅋ
관
관리자
13:22
맞아..