Ollama 로컬 시작
Ollama를 설치하고 로컬 LLM으로 완전 무료 Vibe Coding을 시작하세요. API 키 불필요!
Ollama의 장점:
- ✅ 완전 무료 (API 비용 변동)
- ✅ API 키 불필요
- ✅ 인터넷 없이 작동 (오프라인 가능)
- ✅ 프라이버시 보호 (모든 데이터 로컬)
- ✅ 무제한 사용 (속도 제한 없음)
필요한 것: 컴퓨터 (최소 8GB RAM 권장)
Ollama란?
Ollama는 로컬 컴퓨터에서 LLM(Large Language Model)을 실행하는 가장 쉬운 도구입니다. 클라우드 API 없이, 여러분의 PC나 Mac에서 직접 AI 모델을 구동합니다.
왜 Ollama인가?
| 방식 | 초기 비용 | 월 비용 | 제한 |
|---|---|---|---|
| Claude API | 변동 무료 | 변동-100 | 토큰 제한 |
| GPT-4 API | 변동 | 변동-200 | 토큰 제한 |
| Ollama (로컬) | 변동 | 변동 | 하드웨어만 |
장단점
✅ 장점
- 완전 무료: 초기 비용도, 월 비용도 없음
- 프라이버시: 모든 데이터가 로컬에만 저장
- 오프라인: 인터넷 없이도 작동
- 무제한: API 호출 제한 없음
- 빠른 응답: 네트워크 지연 없음 (로컬 처리)
❌ 단점
- 하드웨어 필요: 최소 8GB RAM (16GB 권장)
- 품질: Claude/GPT-4보다는 낮을 수 있음
- 초기 다운로드: 모델 파일 크기 4-7GB
- GPU 선택: NVIDIA GPU 있으면 훨씬 빠름 (선택사항)
- 최소: 8GB RAM, 10GB 디스크 공간
- 권장: 16GB RAM, NVIDIA GPU (선택)
- 최적: 32GB RAM, NVIDIA GPU 8GB+
8GB RAM이면 Llama 3.2 (3B) 같은 작은 모델 실행 가능합니다. 16GB RAM이면 대부분의 모델을 편하게 실행할 수 있습니다.
Ollama 설치
운영체제별 설치 방법입니다. 2-3분이면 완료됩니다.
macOS 설치
방법 1: 다운로드 (권장)
- Ollama 공식 사이트 접속
- Download for macOS 클릭
- 다운로드된
Ollama.dmg열기 - Ollama 아이콘을 Applications 폴더로 드래그
- Ollama 앱 실행
방법 2: Homebrew
# Homebrew로 설치
brew install ollama
# 설치 확인
ollama --version
Windows 설치
방법 1: 설치 파일 (권장)
- Ollama 공식 사이트 접속
- Download for Windows 클릭
OllamaSetup.exe실행- 설치 마법사 따라가기
- 설치 완료 후 자동 실행
방법 2: winget
# PowerShell에서 실행
winget install Ollama.Ollama
# 설치 확인
ollama --version
Linux 설치
# 공식 설치 스크립트 (Ubuntu, Debian, Fedora 등)
curl -fsSL https://ollama.com/install.sh | sh
# 설치 확인
ollama --version
# 서비스 시작
sudo systemctl start ollama
터미널에서 다음 명령어를 실행해보세요:
ollama --version
# 예상 출력
ollama version is 0.1.x
버전이 출력되면 설치 성공입니다! ✅
첫 번째 모델 실행
Ollama의 대표 모델 Llama 3.2를 실행해봅시다.
모델 다운로드
# Llama 3.2 (3B 파라미터) 다운로드
ollama pull llama3.2
# 다운로드 진행 상황
pulling manifest
pulling e8a35b5937a5... 100% ▕████████████████▏ 2.0 GB
pulling 966de95ca8a6... 100% ▕████████████████▏ 1.4 KB
pulling fcc5a6bec9da... 100% ▕████████████████▏ 7.7 KB
pulling a70ff7e570d9... 100% ▕████████████████▏ 6.0 KB
pulling 56bb8bd477a5... 100% ▕████████████████▏ 96 B
pulling 34bb5ab01051... 100% ▕████████████████▏ 562 B
verifying sha256 digest
writing manifest
removing any unused layers
success
- Llama 3.2 (3B): ~2GB (빠름, 적은 RAM)
- Llama 3.2 (1B): ~1.3GB (매우 빠름, 품질 낮음)
- Llama 3.1 (8B): ~4.7GB (느림, 품질 높음)
- Mistral (7B): ~4.1GB (균형)
처음에는 Llama 3.2 (3B)를 권장합니다!
모델 실행
# Llama 3.2 실행
ollama run llama3.2
# 대화 인터페이스 시작
>>> _
첫 번째 대화
>>> 안녕! Python으로 간단한 인사말을 출력하는 코드 작성해줘.
# Llama 3.2 응답
물론입니다! Python으로 간단한 인사말을 출력하는 코드는 다음과 같습니다:
```python
def greet():
print("안녕하세요! Ollama로 Vibe Coding을 시작합니다.")
print("로컬 LLM으로 무료로 코드를 생성할 수 있어요!")
greet()
```
이 코드를 실행하면 인사말이 출력됩니다. 더 복잡한 기능이 필요하면 알려주세요!
>>> _
작동합니다! 🎉 이제 Ollama와 대화할 수 있습니다.
Ollama 종료
>>> /bye
# 또는 Ctrl+D
Aider와 Ollama 연동
Ollama 단독으로도 사용 가능하지만, Aider CLI와 연동하면 훨씬 강력합니다. Aider는 Git 통합, 멀티파일 편집 등 Vibe Coding에 최적화된 기능을 제공합니다.
Aider 설치
# pip로 Aider 설치
pip install aider-chat
# 설치 확인
aider --version
Python 공식 사이트에서 Python 3.8 이상을 설치하세요.
- macOS:
brew install python - Windows:
winget install Python.Python.3.12 - Linux:
sudo apt install python3 python3-pip
Aider + Ollama 설정
# 프로젝트 디렉토리 생성
mkdir my-vibe-project
cd my-vibe-project
# Git 초기화 (Aider는 Git 저장소 필요)
git init
# Aider 실행 (Ollama 모델 지정)
aider --model ollama/llama3.2
Aider가 Ollama와 연결되어 실행됩니다:
# Aider 시작 화면
Aider v0.x.x
Model: ollama/llama3.2
Repo: /path/to/my-vibe-project (clean)
You can run shell commands with /run
You can drop to a shell with /run
────────────────────────────────────────────────────────
💬 You> _
첫 번째 프로젝트
Aider + Ollama로 TODO 앱을 만들어봅시다:
💬 You> HTML, CSS, JavaScript로 TODO 앱 만들어줘.
할 일 추가/삭제/완료, localStorage 저장, 모바일 반응형.
파일 3개: index.html, style.css, script.js
🤖 Aider> TODO 앱을 생성하겠습니다!
# 파일 생성 중...
Add index.html
Add style.css
Add script.js
# Git 자동 커밋
Commit 3ed7f2a Create TODO app with localStorage and responsive design
🤖 Aider> 3개 파일을 생성하고 커밋했습니다!
index.html을 브라우저에서 열어 테스트해보세요.
- ✅ Git 자동 커밋 (모든 변경사항 추적)
- ✅ diff 확인 (변경 전/후 비교)
- ✅ 멀티파일 동시 편집
- ✅ 파일 검색 및 리팩토링
- ✅ 쉘 명령어 실행 (
/run)
앱 테스트
# Aider 내부에서 바로 서버 실행
💬 You> /run python3 -m http.server 8000
# 브라우저에서 열기
open http://localhost:8000
완전 무료로 TODO 앱을 만들었습니다! 🎉
Ollama 모델 비교
Ollama에서 사용 가능한 주요 모델들을 비교합니다:
| 모델 | 크기 | RAM 필요 | 속도 | 품질 | 추천 대상 |
|---|---|---|---|---|---|
| Llama 3.2 (1B) | 1.3GB | 4GB | ⭐⭐⭐⭐⭐ | ⭐⭐ | 빠른 테스트 |
| Llama 3.2 (3B) | 2.0GB | 8GB | ⭐⭐⭐⭐ | ⭐⭐⭐ | 일반 사용 (권장) |
| Llama 3.1 (8B) | 4.7GB | 16GB | ⭐⭐⭐ | ⭐⭐⭐⭐ | 고품질 코드 |
| Mistral (7B) | 4.1GB | 16GB | ⭐⭐⭐ | ⭐⭐⭐⭐ | 균형잡힌 성능 |
| CodeLlama (7B) | 3.8GB | 16GB | ⭐⭐⭐ | ⭐⭐⭐⭐⭐ | 코딩 특화 |
| Phi-3 (3.8B) | 2.3GB | 8GB | ⭐⭐⭐⭐ | ⭐⭐⭐ | 작고 빠름 |
시스템별 추천 모델
💻 8GB RAM
추천: llama3.2:3b 또는 phi3
ollama pull llama3.2:3b
aider --model ollama/llama3.2:3b
💻 16GB RAM
추천: codellama:7b (코딩 특화) 또는 llama3.1:8b
ollama pull codellama:7b
aider --model ollama/codellama:7b
💻 32GB+ RAM
추천: llama3.1:70b (최고 품질)
ollama pull llama3.1:70b
aider --model ollama/llama3.1:70b
여러 모델을 설치해두고 작업에 따라 전환하세요:
- 간단한 작업:
llama3.2:3b(빠름) - 복잡한 코드:
codellama:7b(정확) - 문서 작성:
llama3.1:8b(자연어 우수)
다음 단계
Ollama 기본을 마스터했습니다! 이제 더 고급 기능을 배워봅시다:
Ollama 고급 활용
연습 프로젝트
| 난이도 | 프로젝트 | 모델 추천 |
|---|---|---|
| ⭐ 초급 | 계산기 웹 앱 | llama3.2:3b |
| ⭐ 초급 | Markdown 에디터 | llama3.2:3b |
| ⭐⭐ 중급 | REST API 서버 (Express) | codellama:7b |
| ⭐⭐ 중급 | React TODO 앱 | codellama:7b |
| ⭐⭐⭐ 고급 | 실시간 채팅 (WebSocket) | llama3.1:8b |
문제 해결
일반적인 문제
❌ "ollama: command not found"
원인: Ollama가 설치되지 않았거나 PATH에 없음
해결: 다시 설치하고 터미널 재시작
❌ 모델 다운로드 느림
원인: 네트워크 속도
해결: 인내심을 가지고 기다리세요. 한 번만 다운로드하면 됩니다.
❌ "Out of memory" 오류
원인: RAM 부족
해결: 더 작은 모델 사용 (llama3.2:1b)
❌ Aider가 Ollama 연결 실패
원인: Ollama 서비스가 실행 중이 아님
해결:
# Ollama 서비스 확인
ollama list
# 서비스가 없으면 Ollama 앱 실행
❌ 응답이 너무 느림
원인: GPU 미사용 또는 큰 모델
해결:
- 더 작은 모델로 전환 (
llama3.2:3b) - NVIDIA GPU가 있다면 자동으로 활용됨
- 성능 최적화 가이드 참고
핵심 정리
- Ollama 로컬 시작의 핵심 개념과 흐름을 정리합니다.
- Ollama란?를 단계별로 이해합니다.
- 실전 적용 시 기준과 주의점을 확인합니다.