Ollama 로컬 시작

Ollama를 설치하고 로컬 LLM으로 완전 무료 Vibe Coding을 시작하세요. API 키 불필요!

업데이트 안내: 모델/요금/버전/정책 등 시점에 민감한 정보는 변동될 수 있습니다. 최신 내용은 공식 문서를 확인하세요.
🎁 완전 무료!

Ollama의 장점:

  • ✅ 완전 무료 (API 비용 변동)
  • ✅ API 키 불필요
  • ✅ 인터넷 없이 작동 (오프라인 가능)
  • ✅ 프라이버시 보호 (모든 데이터 로컬)
  • ✅ 무제한 사용 (속도 제한 없음)

필요한 것: 컴퓨터 (최소 8GB RAM 권장)

Ollama란?

Ollama는 로컬 컴퓨터에서 LLM(Large Language Model)을 실행하는 가장 쉬운 도구입니다. 클라우드 API 없이, 여러분의 PC나 Mac에서 직접 AI 모델을 구동합니다.

왜 Ollama인가?

💰 비용 비교
방식 초기 비용 월 비용 제한
Claude API 변동 무료 변동-100 토큰 제한
GPT-4 API 변동 변동-200 토큰 제한
Ollama (로컬) 변동 변동 하드웨어만

장단점

✅ 장점

  • 완전 무료: 초기 비용도, 월 비용도 없음
  • 프라이버시: 모든 데이터가 로컬에만 저장
  • 오프라인: 인터넷 없이도 작동
  • 무제한: API 호출 제한 없음
  • 빠른 응답: 네트워크 지연 없음 (로컬 처리)

❌ 단점

  • 하드웨어 필요: 최소 8GB RAM (16GB 권장)
  • 품질: Claude/GPT-4보다는 낮을 수 있음
  • 초기 다운로드: 모델 파일 크기 4-7GB
  • GPU 선택: NVIDIA GPU 있으면 훨씬 빠름 (선택사항)
⚠️ 시스템 요구사항
  • 최소: 8GB RAM, 10GB 디스크 공간
  • 권장: 16GB RAM, NVIDIA GPU (선택)
  • 최적: 32GB RAM, NVIDIA GPU 8GB+

8GB RAM이면 Llama 3.2 (3B) 같은 작은 모델 실행 가능합니다. 16GB RAM이면 대부분의 모델을 편하게 실행할 수 있습니다.

Ollama 설치

운영체제별 설치 방법입니다. 2-3분이면 완료됩니다.

macOS 설치

방법 1: 다운로드 (권장)

  1. Ollama 공식 사이트 접속
  2. Download for macOS 클릭
  3. 다운로드된 Ollama.dmg 열기
  4. Ollama 아이콘을 Applications 폴더로 드래그
  5. Ollama 앱 실행

방법 2: Homebrew

# Homebrew로 설치
brew install ollama

# 설치 확인
ollama --version

Windows 설치

방법 1: 설치 파일 (권장)

  1. Ollama 공식 사이트 접속
  2. Download for Windows 클릭
  3. OllamaSetup.exe 실행
  4. 설치 마법사 따라가기
  5. 설치 완료 후 자동 실행

방법 2: winget

# PowerShell에서 실행
winget install Ollama.Ollama

# 설치 확인
ollama --version

Linux 설치

# 공식 설치 스크립트 (Ubuntu, Debian, Fedora 등)
curl -fsSL https://ollama.com/install.sh | sh

# 설치 확인
ollama --version

# 서비스 시작
sudo systemctl start ollama
✅ 설치 확인

터미널에서 다음 명령어를 실행해보세요:

ollama --version

# 예상 출력
ollama version is 0.1.x

버전이 출력되면 설치 성공입니다! ✅

첫 번째 모델 실행

Ollama의 대표 모델 Llama 3.2를 실행해봅시다.

모델 다운로드

# Llama 3.2 (3B 파라미터) 다운로드
ollama pull llama3.2

# 다운로드 진행 상황
pulling manifest
pulling e8a35b5937a5... 100% ▕████████████████▏ 2.0 GB
pulling 966de95ca8a6... 100% ▕████████████████▏ 1.4 KB
pulling fcc5a6bec9da... 100% ▕████████████████▏ 7.7 KB
pulling a70ff7e570d9... 100% ▕████████████████▏ 6.0 KB
pulling 56bb8bd477a5... 100% ▕████████████████▏  96 B
pulling 34bb5ab01051... 100% ▕████████████████▏ 562 B
verifying sha256 digest
writing manifest
removing any unused layers
success
📦 모델 크기
  • Llama 3.2 (3B): ~2GB (빠름, 적은 RAM)
  • Llama 3.2 (1B): ~1.3GB (매우 빠름, 품질 낮음)
  • Llama 3.1 (8B): ~4.7GB (느림, 품질 높음)
  • Mistral (7B): ~4.1GB (균형)

처음에는 Llama 3.2 (3B)를 권장합니다!

모델 실행

# Llama 3.2 실행
ollama run llama3.2

# 대화 인터페이스 시작
>>> _

첫 번째 대화

>>> 안녕! Python으로 간단한 인사말을 출력하는 코드 작성해줘.

# Llama 3.2 응답
물론입니다! Python으로 간단한 인사말을 출력하는 코드는 다음과 같습니다:

```python
def greet():
    print("안녕하세요! Ollama로 Vibe Coding을 시작합니다.")
    print("로컬 LLM으로 무료로 코드를 생성할 수 있어요!")

greet()
```

이 코드를 실행하면 인사말이 출력됩니다. 더 복잡한 기능이 필요하면 알려주세요!

>>> _

작동합니다! 🎉 이제 Ollama와 대화할 수 있습니다.

Ollama 종료

>>> /bye

# 또는 Ctrl+D

Aider와 Ollama 연동

Ollama 단독으로도 사용 가능하지만, Aider CLI와 연동하면 훨씬 강력합니다. Aider는 Git 통합, 멀티파일 편집 등 Vibe Coding에 최적화된 기능을 제공합니다.

Aider 설치

# pip로 Aider 설치
pip install aider-chat

# 설치 확인
aider --version
Python이 없다면?

Python 공식 사이트에서 Python 3.8 이상을 설치하세요.

  • macOS: brew install python
  • Windows: winget install Python.Python.3.12
  • Linux: sudo apt install python3 python3-pip

Aider + Ollama 설정

# 프로젝트 디렉토리 생성
mkdir my-vibe-project
cd my-vibe-project

# Git 초기화 (Aider는 Git 저장소 필요)
git init

# Aider 실행 (Ollama 모델 지정)
aider --model ollama/llama3.2

Aider가 Ollama와 연결되어 실행됩니다:

# Aider 시작 화면
Aider v0.x.x
Model: ollama/llama3.2
Repo: /path/to/my-vibe-project (clean)

You can run shell commands with /run 
You can drop to a shell with /run

────────────────────────────────────────────────────────

💬 You> _

첫 번째 프로젝트

Aider + Ollama로 TODO 앱을 만들어봅시다:

💬 You> HTML, CSS, JavaScript로 TODO 앱 만들어줘.
할 일 추가/삭제/완료, localStorage 저장, 모바일 반응형.
파일 3개: index.html, style.css, script.js

🤖 Aider> TODO 앱을 생성하겠습니다!

# 파일 생성 중...
Add index.html
Add style.css
Add script.js

# Git 자동 커밋
Commit 3ed7f2a Create TODO app with localStorage and responsive design

🤖 Aider> 3개 파일을 생성하고 커밋했습니다!
index.html을 브라우저에서 열어 테스트해보세요.
✨ Aider의 장점
  • ✅ Git 자동 커밋 (모든 변경사항 추적)
  • ✅ diff 확인 (변경 전/후 비교)
  • ✅ 멀티파일 동시 편집
  • ✅ 파일 검색 및 리팩토링
  • ✅ 쉘 명령어 실행 (/run)

앱 테스트

# Aider 내부에서 바로 서버 실행
💬 You> /run python3 -m http.server 8000

# 브라우저에서 열기
open http://localhost:8000

완전 무료로 TODO 앱을 만들었습니다! 🎉

Ollama 모델 비교

Ollama에서 사용 가능한 주요 모델들을 비교합니다:

모델 크기 RAM 필요 속도 품질 추천 대상
Llama 3.2 (1B) 1.3GB 4GB ⭐⭐⭐⭐⭐ ⭐⭐ 빠른 테스트
Llama 3.2 (3B) 2.0GB 8GB ⭐⭐⭐⭐ ⭐⭐⭐ 일반 사용 (권장)
Llama 3.1 (8B) 4.7GB 16GB ⭐⭐⭐ ⭐⭐⭐⭐ 고품질 코드
Mistral (7B) 4.1GB 16GB ⭐⭐⭐ ⭐⭐⭐⭐ 균형잡힌 성능
CodeLlama (7B) 3.8GB 16GB ⭐⭐⭐ ⭐⭐⭐⭐⭐ 코딩 특화
Phi-3 (3.8B) 2.3GB 8GB ⭐⭐⭐⭐ ⭐⭐⭐ 작고 빠름

시스템별 추천 모델

💻 8GB RAM

추천: llama3.2:3b 또는 phi3

ollama pull llama3.2:3b
aider --model ollama/llama3.2:3b

💻 16GB RAM

추천: codellama:7b (코딩 특화) 또는 llama3.1:8b

ollama pull codellama:7b
aider --model ollama/codellama:7b

💻 32GB+ RAM

추천: llama3.1:70b (최고 품질)

ollama pull llama3.1:70b
aider --model ollama/llama3.1:70b
💡 모델 전환 팁

여러 모델을 설치해두고 작업에 따라 전환하세요:

  • 간단한 작업: llama3.2:3b (빠름)
  • 복잡한 코드: codellama:7b (정확)
  • 문서 작성: llama3.1:8b (자연어 우수)

다음 단계

Ollama 기본을 마스터했습니다! 이제 더 고급 기능을 배워봅시다:

Ollama 고급 활용

🦙 Ollama 모델 가이드

모든 모델 비교, 선택 가이드, 커스텀 모델 생성

배우기 →

🔧 Ollama 사용법

CLI 명령어, API, 모델 관리 종합 가이드

배우기 →

🔌 Ollama 연동

Continue.dev, Cursor 등 다른 도구와 연동

배우기 →

⚡ 성능 최적화

GPU 활용, 양자화, 배치 처리 등

최적화 →

연습 프로젝트

난이도 프로젝트 모델 추천
⭐ 초급 계산기 웹 앱 llama3.2:3b
⭐ 초급 Markdown 에디터 llama3.2:3b
⭐⭐ 중급 REST API 서버 (Express) codellama:7b
⭐⭐ 중급 React TODO 앱 codellama:7b
⭐⭐⭐ 고급 실시간 채팅 (WebSocket) llama3.1:8b

문제 해결

일반적인 문제

❌ "ollama: command not found"

원인: Ollama가 설치되지 않았거나 PATH에 없음

해결: 다시 설치하고 터미널 재시작

❌ 모델 다운로드 느림

원인: 네트워크 속도

해결: 인내심을 가지고 기다리세요. 한 번만 다운로드하면 됩니다.

❌ "Out of memory" 오류

원인: RAM 부족

해결: 더 작은 모델 사용 (llama3.2:1b)

❌ Aider가 Ollama 연결 실패

원인: Ollama 서비스가 실행 중이 아님

해결:

# Ollama 서비스 확인
ollama list

# 서비스가 없으면 Ollama 앱 실행

❌ 응답이 너무 느림

원인: GPU 미사용 또는 큰 모델

해결:

핵심 정리

  • Ollama 로컬 시작의 핵심 개념과 흐름을 정리합니다.
  • Ollama란?를 단계별로 이해합니다.
  • 실전 적용 시 기준과 주의점을 확인합니다.