Ollama 로컬 시작
Ollama를 설치하고 로컬 LLM으로 완전 무료 Vibe Coding을 시작하세요. API 키 불필요!
Ollama의 장점:
- ✅ 완전 무료 (API 비용 변동)
- ✅ API 키 불필요
- ✅ 인터넷 없이 작동 (오프라인 가능)
- ✅ 프라이버시 보호 (모든 데이터 로컬)
- ✅ 무제한 사용 (속도 제한 없음)
필요한 것: 컴퓨터 (최소 8GB RAM 권장)
# Ollama 설치 확인
ollama --version
# Python 확인 (로컬 서버/도구 연동용)
python3 --version
이 페이지의 5분은 도구 설치와 초기 다운로드가 끝난 상태를 기준으로 합니다. 처음 실행에서는 네트워크와 시스템 환경에 따라 시간이 더 걸릴 수 있습니다.
Ollama란?
Ollama는 로컬 컴퓨터에서 LLM(Large Language Model)을 실행하는 가장 쉬운 도구입니다. 클라우드 API 없이, 여러분의 PC나 Mac에서 직접 AI 모델을 구동합니다.
로컬 개발 환경 구성도
아래 다이어그램은 Ollama 기반 로컬 Vibe Coding 환경의 전체 구조를 보여줍니다.
왜 Ollama인가?
| 방식 | 초기 비용 | 월 비용 | 제한 |
|---|---|---|---|
| Claude API | 변동 무료 | 변동-100 | 토큰 제한 |
| GPT-4 API | 변동 | 변동-200 | 토큰 제한 |
| Ollama (로컬) | 변동 | 변동 | 하드웨어만 |
장단점
✅ 장점
- 완전 무료: 초기 비용도, 월 비용도 없음
- 프라이버시: 모든 데이터가 로컬에만 저장
- 오프라인: 인터넷 없이도 작동
- 무제한: API 호출 제한 없음
- 빠른 응답: 네트워크 지연 없음 (로컬 처리)
❌ 단점
- 하드웨어 필요: 최소 8GB RAM (16GB 권장)
- 품질: Claude/GPT-4보다는 낮을 수 있음
- 초기 다운로드: 모델 파일 크기 4-7GB
- GPU 선택: NVIDIA GPU 있으면 훨씬 빠름 (선택사항)
- 최소: 8GB RAM, 10GB 디스크 공간
- 권장: 16GB RAM, NVIDIA GPU (선택)
- 최적: 32GB RAM, NVIDIA GPU 8GB+
8GB RAM이면 Llama 3.2 (3B) 같은 작은 모델 실행 가능합니다. 16GB RAM이면 대부분의 모델을 편하게 실행할 수 있습니다.
Ollama 설치
운영체제별 설치 방법입니다. 2-3분이면 완료됩니다.
macOS 설치
방법 1: 다운로드 (권장)
- Ollama 공식 사이트 접속
- Download for macOS 클릭
- 다운로드된
Ollama.dmg열기 - Ollama 아이콘을 Applications 폴더로 드래그
- Ollama 앱 실행
방법 2: Homebrew
# Homebrew로 설치
brew install ollama
# 설치 확인
ollama --version
Windows 설치
방법 1: 설치 파일 (권장)
- Ollama 공식 사이트 접속
- Download for Windows 클릭
OllamaSetup.exe실행- 설치 마법사 따라가기
- 설치 완료 후 자동 실행
방법 2: winget
# PowerShell에서 실행
winget install Ollama.Ollama
# 설치 확인
ollama --version
Linux 설치
# 공식 설치 스크립트 (Ubuntu, Debian, Fedora 등)
curl -fsSL https://ollama.com/install.sh | sh
# 설치 확인
ollama --version
# 서비스 시작
sudo systemctl start ollama
터미널에서 다음 명령어를 실행해보세요:
ollama --version
# 예상 출력
ollama version is 0.1.x
버전이 출력되면 설치 성공입니다! ✅
첫 번째 모델 실행
Ollama의 대표 모델 Llama 3.2를 실행해봅시다.
모델 다운로드
# Llama 3.2 (3B 파라미터) 다운로드
ollama pull llama3.2
# 다운로드 진행 상황
pulling manifest
pulling e8a35b5937a5... 100% ▕████████████████▏ 2.0 GB
pulling 966de95ca8a6... 100% ▕████████████████▏ 1.4 KB
pulling fcc5a6bec9da... 100% ▕████████████████▏ 7.7 KB
pulling a70ff7e570d9... 100% ▕████████████████▏ 6.0 KB
pulling 56bb8bd477a5... 100% ▕████████████████▏ 96 B
pulling 34bb5ab01051... 100% ▕████████████████▏ 562 B
verifying sha256 digest
writing manifest
removing any unused layers
success
- Llama 3.2 (3B): ~2GB (빠름, 적은 RAM)
- Llama 3.2 (1B): ~1.3GB (매우 빠름, 품질 낮음)
- Llama 3.1 (8B): ~4.7GB (느림, 품질 높음)
- Mistral (7B): ~4.1GB (균형)
처음에는 Llama 3.2 (3B)를 권장합니다!
모델 실행
# Llama 3.2 실행
ollama run llama3.2
# 대화 인터페이스 시작
>>> _
첫 번째 대화
>>> 안녕! Python으로 간단한 인사말을 출력하는 코드 작성해줘.
# Llama 3.2 응답
물론입니다! Python으로 간단한 인사말을 출력하는 코드는 다음과 같습니다:
```python
def greet():
print("안녕하세요! Ollama로 Vibe Coding을 시작합니다.")
print("로컬 LLM으로 무료로 코드를 생성할 수 있어요!")
greet()
```
이 코드를 실행하면 인사말이 출력됩니다. 더 복잡한 기능이 필요하면 알려주세요!
>>> _
작동합니다! 🎉 이제 Ollama와 대화할 수 있습니다.
Ollama 종료
>>> /bye
# 또는 Ctrl+D
Aider와 Ollama 연동
Ollama 단독으로도 사용 가능하지만, Aider CLI와 연동하면 훨씬 강력합니다. Aider는 Git 통합, 멀티파일 편집 등 Vibe Coding에 최적화된 기능을 제공합니다.
Aider 설치
# pip로 Aider 설치
pip install aider-chat
# 설치 확인
aider --version
Python 공식 사이트에서 Python 3.8 이상을 설치하세요.
- macOS:
brew install python - Windows:
winget install Python.Python.3.12 - Linux:
sudo apt install python3 python3-pip
Aider + Ollama 설정
# 프로젝트 디렉토리 생성
mkdir my-vibe-project
cd my-vibe-project
# Git 초기화 (Aider는 Git 저장소 필요)
git init
# Aider 실행 (Ollama 모델 지정)
aider --model ollama/llama3.2
Aider가 Ollama와 연결되어 실행됩니다:
# Aider 시작 화면
Aider v0.x.x
Model: ollama/llama3.2
Repo: /path/to/my-vibe-project (clean)
You can run shell commands with /run
You can drop to a shell with /run
────────────────────────────────────────────────────────
💬 You> _
첫 번째 프로젝트
Aider + Ollama로 TODO 앱을 만들어봅시다:
💬 You> HTML, CSS, JavaScript로 TODO 앱 만들어줘.
할 일 추가/삭제/완료, localStorage 저장, 모바일 반응형.
파일 3개: index.html, style.css, script.js
🤖 Aider> TODO 앱을 생성하겠습니다!
# 파일 생성 중...
Add index.html
Add style.css
Add script.js
# Git 자동 커밋
Commit 3ed7f2a Create TODO app with localStorage and responsive design
🤖 Aider> 3개 파일을 생성하고 커밋했습니다!
index.html을 브라우저에서 열어 테스트해보세요.
- ✅ Git 자동 커밋 (모든 변경사항 추적)
- ✅ diff 확인 (변경 전/후 비교)
- ✅ 멀티파일 동시 편집
- ✅ 파일 검색 및 리팩토링
- ✅ 쉘 명령어 실행 (
/run)
앱 테스트
# Aider 내부에서 바로 서버 실행
💬 You> /run python3 -m http.server 8000
# 브라우저에서 열기
open http://localhost:8000
테스트가 끝나면 서버를 실행한 터미널에서 Ctrl + C를 눌러 종료하세요.
완전 무료로 TODO 앱을 만들었습니다! 🎉
Ollama 모델 비교
Ollama에서 사용 가능한 주요 모델들을 비교합니다:
| 모델 | 크기 | RAM 필요 | 속도 | 품질 | 추천 대상 |
|---|---|---|---|---|---|
| Llama 3.2 (1B) | 1.3GB | 4GB | ⭐⭐⭐⭐⭐ | ⭐⭐ | 빠른 테스트 |
| Llama 3.2 (3B) | 2.0GB | 8GB | ⭐⭐⭐⭐ | ⭐⭐⭐ | 일반 사용 (권장) |
| Llama 3.1 (8B) | 4.7GB | 16GB | ⭐⭐⭐ | ⭐⭐⭐⭐ | 고품질 코드 |
| Mistral (7B) | 4.1GB | 16GB | ⭐⭐⭐ | ⭐⭐⭐⭐ | 균형잡힌 성능 |
| CodeLlama (7B) | 3.8GB | 16GB | ⭐⭐⭐ | ⭐⭐⭐⭐⭐ | 코딩 특화 |
| Phi-3 (3.8B) | 2.3GB | 8GB | ⭐⭐⭐⭐ | ⭐⭐⭐ | 작고 빠름 |
시스템별 추천 모델
💻 8GB RAM
추천: llama3.2:3b 또는 phi3
ollama pull llama3.2:3b
aider --model ollama/llama3.2:3b
💻 16GB RAM
추천: codellama:7b (코딩 특화) 또는 llama3.1:8b
ollama pull codellama:7b
aider --model ollama/codellama:7b
💻 32GB+ RAM
추천: llama3.1:70b (최고 품질)
ollama pull llama3.1:70b
aider --model ollama/llama3.1:70b
여러 모델을 설치해두고 작업에 따라 전환하세요:
- 간단한 작업:
llama3.2:3b(빠름) - 복잡한 코드:
codellama:7b(정확) - 문서 작성:
llama3.1:8b(자연어 우수)
다음 단계
Ollama 기본을 마스터했습니다! 이제 더 고급 기능을 배워봅시다:
Ollama 고급 활용
연습 프로젝트
| 난이도 | 프로젝트 | 모델 추천 |
|---|---|---|
| ⭐ 초급 | 계산기 웹 앱 | llama3.2:3b |
| ⭐ 초급 | Markdown 에디터 | llama3.2:3b |
| ⭐⭐ 중급 | REST API 서버 (Express) | codellama:7b |
| ⭐⭐ 중급 | React TODO 앱 | codellama:7b |
| ⭐⭐⭐ 고급 | 실시간 채팅 (WebSocket) | llama3.1:8b |
문제 해결
일반적인 문제
❌ "ollama: command not found"
원인: Ollama가 설치되지 않았거나 PATH에 없음
해결: 다시 설치하고 터미널 재시작
❌ 모델 다운로드 느림
원인: 네트워크 속도
해결: 인내심을 가지고 기다리세요. 한 번만 다운로드하면 됩니다.
❌ "Out of memory" 오류
원인: RAM 부족
해결: 더 작은 모델 사용 (llama3.2:1b)
❌ Aider가 Ollama 연결 실패
원인: Ollama 서비스가 실행 중이 아님
해결:
# Ollama 서비스 확인
ollama list
# 서비스가 없으면 Ollama 앱 실행
❌ "Permission denied" 또는 접근 권한 오류
원인: 쓰기 권한이 없는 위치에서 실행
해결: 홈 디렉토리 아래 새 폴더에서 다시 시작
mkdir my-vibe-project
cd my-vibe-project
❌ "Port 8000 is already in use"
원인: 다른 프로세스가 8000 포트 사용 중
해결: 다른 포트로 서버 실행
python3 -m http.server 8080
# 브라우저: http://localhost:8080
❌ 응답이 너무 느림
원인: GPU 미사용 또는 큰 모델
해결:
- 더 작은 모델로 전환 (
llama3.2:3b) - NVIDIA GPU가 있다면 자동으로 활용됨
- 성능 최적화 가이드 참고
핵심 정리
- Ollama 로컬 시작의 핵심 개념과 흐름을 정리합니다.
- Ollama란?를 단계별로 이해합니다.
- 실전 적용 시 기준과 주의점을 확인합니다.