Ollama 트러블슈팅

설치 문제, 실행 오류, GPU 인식, 성능 저하 등 모든 문제 해결 가이드

🔍 빠른 진단

증상별 바로가기:

아래 다이어그램은 Ollama 트러블슈팅 시 문제 유형별 의사결정 트리를 보여줍니다.

Ollama 트러블슈팅 의사결정 트리 문제 발생 설치 문제? 성능 문제? 모델 문제? 네트워크 문제? PATH 환경변수 확인 재설치 / 권한 설정 서비스 상태 점검 GPU 드라이버 업데이트 모델 크기 조정 메모리 할당 최적화 모델 재다운로드 Modelfile 검증 디스크 공간 확인 포트 충돌 확인 방화벽 설정 점검 OLLAMA_HOST 설정

설치 문제

1. "ollama: command not found"

증상
$ ollama --version
bash: ollama: command not found

원인

  • Ollama가 설치되지 않음
  • PATH에 Ollama 경로가 없음
  • 설치가 중간에 실패함

해결 방법

# 1. Ollama 설치 확인
which ollama
# 출력 없음 → 미설치

# 2. 재설치 (Linux/macOS)
curl -fsSL https://ollama.com/install.sh | sh

# 3. 수동 PATH 추가 (필요시)
export PATH="/usr/local/bin:$PATH"
echo 'export PATH="/usr/local/bin:$PATH"' >> ~/.bashrc
source ~/.bashrc

# 4. 확인
ollama --version

Windows

# PowerShell에서
Get-Command ollama
# CommandNotFoundException → 재설치 필요

# 환경 변수 PATH 확인
$env:Path -split ';' | Select-String ollama

# PATH 추가 (영구 설정)
[System.Environment]::SetEnvironmentVariable(
    'Path',
    $env:Path + ';C:\Users\[사용자]\AppData\Local\Programs\Ollama\bin',
    [System.EnvironmentVariableTarget]::User
)

2. 권한 오류 (Permission Denied)

증상
Permission denied when trying to install Ollama

해결 방법

# Linux - sudo 권한으로 재설치
curl -fsSL https://ollama.com/install.sh | sudo sh

# macOS - 관리자 권한
sudo curl -fsSL https://ollama.com/install.sh | sh

# 파일 권한 확인
ls -la /usr/local/bin/ollama
# -rwxr-xr-x ... ollama

# 권한 수정 (필요시)
sudo chmod +x /usr/local/bin/ollama

3. systemd 서비스 생성 실패

증상
Failed to enable unit: Unit file ollama.service does not exist

해결 방법

# 1. 서비스 파일 수동 생성
sudo tee /etc/systemd/system/ollama.service <<EOF
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="OLLAMA_HOST=0.0.0.0:11434"

[Install]
WantedBy=default.target
EOF

# 2. 사용자 생성 (없으면)
sudo useradd -r -s /bin/false -m -d /usr/share/ollama ollama

# 3. systemd 리로드 및 시작
sudo systemctl daemon-reload
sudo systemctl enable ollama
sudo systemctl start ollama

# 4. 상태 확인
sudo systemctl status ollama

연결 문제

1. "Connection Refused" (포트 11434)

증상
curl: (7) Failed to connect to localhost port 11434: Connection refused

원인

  • Ollama 서비스가 실행되지 않음
  • 포트 11434가 다른 프로세스에 의해 사용 중
  • 방화벽이 포트를 차단

해결 방법

# 1. Ollama 서비스 상태 확인
# Linux
sudo systemctl status ollama
# Active: active (running) 이어야 함

# macOS
ps aux | grep ollama
# ollama serve 프로세스가 있어야 함

# Windows
Get-Service Ollama

# 2. 서비스 시작
# Linux
sudo systemctl start ollama

# macOS
ollama serve &

# 3. 포트 사용 확인
sudo lsof -i :11434
# ollama ... LISTEN 이어야 함

# 다른 프로세스가 사용 중이면 종료
sudo kill -9 [PID]

# 4. 방화벽 확인 (Linux)
sudo ufw status
sudo ufw allow 11434/tcp

# 5. 재시작
sudo systemctl restart ollama

2. "Connection Timeout" (원격 접속)

증상
curl: (28) Failed to connect to 192.168.1.100 port 11434: Connection timed out

해결 방법

# 1. OLLAMA_HOST 환경 변수 설정 (0.0.0.0으로)
# Linux - systemd 서비스 편집
sudo systemctl edit ollama
# 다음 추가:
[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"

sudo systemctl restart ollama

# 2. 방화벽 포트 열기
# Ubuntu/Debian
sudo ufw allow 11434/tcp

# CentOS/RHEL
sudo firewall-cmd --permanent --add-port=11434/tcp
sudo firewall-cmd --reload

# 3. 클라우드 보안 그룹 설정 (AWS, GCP 등)
# Inbound 규칙: TCP 11434 허용

# 4. 테스트
curl http://[서버IP]:11434/api/tags

3. SSL/TLS 오류

증상
SSL certificate problem: unable to get local issuer certificate

해결 방법

# 1. 인증서 무시 (테스트 전용)
curl -k https://localhost:11434/api/tags

# 2. CA 인증서 설치 (프로덕션)
# Ubuntu/Debian
sudo apt install ca-certificates
sudo update-ca-certificates

# 3. Python requests에서
import requests
response = requests.post(
    'https://localhost:11434/api/generate',
    json={...},
    verify=False  # 또는 인증서 경로
)

GPU 문제

1. GPU 미감지 (NVIDIA)

증상
Ollama는 실행되지만 CPU만 사용, GPU 사용률 0%

진단

# 1. nvidia-smi 실행
nvidia-smi
# GPU 정보가 표시되어야 함

# 오류 발생 시 → 드라이버 문제
# "NVIDIA-SMI has failed..." → 드라이버 재설치 필요

# 2. CUDA 버전 확인
nvcc --version
# CUDA 11.8+ 필요

# 3. Ollama 로그 확인
sudo journalctl -u ollama -n 100
# "GPU" 또는 "CUDA" 관련 메시지 찾기

해결 방법

# 1. NVIDIA 드라이버 재설치 (Ubuntu)
# 기존 드라이버 제거
sudo apt purge nvidia-*
sudo apt autoremove

# 최신 드라이버 설치
sudo apt update
sudo apt install nvidia-driver-535

# 재부팅 필수
sudo reboot

# 2. CUDA Toolkit 설치 (선택사항)
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-keyring_1.1-1_all.deb
sudo dpkg -i cuda-keyring_1.1-1_all.deb
sudo apt update
sudo apt install cuda-toolkit-12-3

# 3. Ollama 재시작
sudo systemctl restart ollama

# 4. GPU 사용 확인
ollama run llama3.2 "Hello"
# 동시에 다른 터미널에서
watch -n 1 nvidia-smi
# GPU 사용률이 올라가야 함

2. GPU 메모리 부족 (OOM)

증상
CUDA out of memory. Tried to allocate X MiB

해결 방법

# 1. 더 작은 모델 사용
ollama pull llama3.2:3b      # 3B 모델 (2GB VRAM)
ollama pull phi3:mini        # Phi-3 Mini (2GB VRAM)

# 2. 양자화 버전 사용
ollama pull llama3.2:7b-q4_0  # 4-bit 양자화 (4GB VRAM)

# 3. GPU 레이어 수 제한
export OLLAMA_NUM_GPU=20  # 일부만 GPU, 나머지는 CPU
sudo systemctl restart ollama

# 4. 컨텍스트 윈도우 줄이기
# Modelfile
PARAMETER num_ctx 2048  # 기본 4096 → 2048

# 5. 다른 GPU 프로세스 종료
nvidia-smi
# GPU 메모리 사용 중인 프로세스 확인
kill -9 [PID]

3. 다중 GPU 설정

# 특정 GPU만 사용
export CUDA_VISIBLE_DEVICES=0  # GPU 0만 사용
export CUDA_VISIBLE_DEVICES=0,1  # GPU 0, 1 사용

# systemd 서비스에 적용
sudo systemctl edit ollama
[Service]
Environment="CUDA_VISIBLE_DEVICES=0,1"

sudo systemctl restart ollama

# 확인
nvidia-smi
# 지정한 GPU만 사용 중이어야 함

4. AMD GPU (ROCm) 문제

⚠️ ROCm은 Linux 전용

AMD GPU는 ROCm v7을 통해 Linux에서 지원됩니다. Windows에서는 ROCm이 지원되지 않으므로 Vulkan을 대안으로 사용해야 합니다.

# ROCm v7 설치 (Linux/Ubuntu 전용)
wget https://repo.radeon.com/amdgpu-install/latest/ubuntu/focal/amdgpu-install_*_all.deb
sudo dpkg -i amdgpu-install_*_all.deb
sudo amdgpu-install --usecase=rocm

# 재부팅
sudo reboot

# ROCm 확인
rocm-smi

# Ollama 재시작
sudo systemctl restart ollama

# Windows에서 AMD GPU 사용 시 → Vulkan 섹션 참조

5. Vulkan GPU 가속

⚠️ 실험적 지원

Vulkan은 실험적으로 지원됩니다. 안정성 문제가 발생할 수 있으며, 특히 AMD GPU(Windows)와 Intel GPU에서 유용합니다.

# Vulkan GPU 가속 활성화
OLLAMA_VULKAN=1 ollama serve

# systemd 서비스에 적용 (Linux)
sudo systemctl edit ollama
[Service]
Environment="OLLAMA_VULKAN=1"

sudo systemctl restart ollama

# Windows에서 AMD GPU 사용 시
# → ROCm이 미지원이므로 Vulkan 사용 필요
# PowerShell:
$env:OLLAMA_VULKAN="1"
ollama serve

# Intel GPU 가속
# → Vulkan을 통해 Intel GPU에서도 가속 가능
# OLLAMA_VULKAN=1 설정 후 ollama serve 실행

# Vulkan 문제 발생 시
# 1. GPU 드라이버를 최신 버전으로 업데이트
# 2. vulkaninfo 명령으로 Vulkan 지원 확인
vulkaninfo --summary
# 3. 안정성 문제 시 OLLAMA_VULKAN=0으로 비활성화

6. Apple Silicon (M1/M2/M3/M4) 최적화

# Metal 가속 자동 활성화 (설정 불필요)
ollama run llama3.2

# Apple Silicon MLX 가속
# v0.20+에서 자동 활성화 - 별도 설정 불필요
# Metal보다 향상된 성능 제공

# 메모리 압력 모니터링
sudo memory_pressure

# Activity Monitor에서 확인
# GPU 탭에서 "ollama" 프로세스의 GPU 사용률 확인

# 메모리 스왑 최소화
# 더 작은 모델 사용
ollama pull llama3.2:3b  # M1 8GB에 적합

성능 문제

1. 응답 속도가 매우 느림

증상

1-2 tokens/sec 이하, 응답에 수 분 소요

원인 및 해결

# 1. CPU만 사용 (GPU 미활용)
# → GPU 설정 확인 (위 GPU 섹션 참조)
nvidia-smi  # GPU 사용률 0% → 문제

# 2. 모델이 너무 큼
# → 더 작은 모델 사용
ollama pull llama3.2:7b  # 70B → 7B

# 3. RAM 부족 (스왑 사용)
free -h
# Swap 사용량이 높으면 문제
# → 모델 크기 줄이기 또는 RAM 증설

# 4. 컨텍스트 윈도우가 너무 큼
# Modelfile
PARAMETER num_ctx 2048  # 8192 → 2048

# 5. 다른 프로세스가 리소스 사용
top
# CPU/메모리 많이 쓰는 프로세스 종료

2. 메모리 부족 (OOM Killed)

증상
Killed
dmesg | grep -i "out of memory"
# Out of memory: Killed process [PID] (ollama)

해결 방법

# 1. 메모리 사용량 확인
free -h
# 사용 가능한 메모리 확인

# 2. 더 작은 모델 사용
# 모델별 RAM 요구사항:
# - 3B: 8GB
# - 7B: 16GB
# - 13B: 24GB
# - 70B: 64GB+

ollama pull phi3:mini  # 3B, 8GB RAM

# 3. 양자화 버전 사용
ollama pull llama3.2:7b-q4_0  # 절반 크기

# 4. 스왑 메모리 증가 (임시 방편)
sudo fallocate -l 8G /swapfile
sudo chmod 600 /swapfile
sudo mkswap /swapfile
sudo swapon /swapfile

# 5. 동시 실행 모델 수 제한
export OLLAMA_MAX_LOADED_MODELS=1
sudo systemctl restart ollama

3. 디스크 공간 부족

증상
Error: no space left on device

해결 방법

# 1. 디스크 사용량 확인
df -h
# ~/.ollama 경로의 사용량 확인

du -sh ~/.ollama/models
# 모델 총 크기 확인

# 2. 미사용 모델 삭제
ollama list
ollama rm [모델명]

# 3. 모델 저장 경로 변경 (더 큰 디스크로)
# Linux
sudo systemctl edit ollama
[Service]
Environment="OLLAMA_MODELS=/mnt/storage/ollama"

sudo mkdir -p /mnt/storage/ollama
sudo chown ollama:ollama /mnt/storage/ollama
sudo systemctl restart ollama

# 4. Docker 이미지 정리 (Docker 사용 시)
docker system prune -a

4. 동시 요청 시 느려짐

# 병렬 요청 수 증가
export OLLAMA_NUM_PARALLEL=4  # 기본 1 → 4

# systemd 서비스
sudo systemctl edit ollama
[Service]
Environment="OLLAMA_NUM_PARALLEL=4"

sudo systemctl restart ollama

# 주의: 메모리 사용량 증가
# 병렬 처리 수 = 동시 로드 모델 수

5. 모델 스케줄링 및 OOM 방지

💡 최신 버전 개선 사항

최신 Ollama 버전에서는 모델 스케줄링이 크게 개선되어 OOM 크래시가 약 70% 감소했습니다. 항상 최신 버전으로 업데이트하세요.

# Ollama 최신 버전 업데이트
curl -fsSL https://ollama.com/install.sh | sh

# 멀티 GPU 시스템 최적화
# 모델을 여러 GPU에 자동 분산 배치
# 큰 모델은 자동으로 다중 GPU 활용
export CUDA_VISIBLE_DEVICES=0,1  # 사용할 GPU 지정

# 모델별 GPU 메모리 할당 모니터링
watch -n 1 nvidia-smi
# 각 GPU의 메모리 사용량을 확인하여 균형 조정

# OOM 예방: 동시 로드 모델 수 제한
export OLLAMA_MAX_LOADED_MODELS=2
sudo systemctl restart ollama

모델 문제

1. 모델 다운로드 실패

증상
Error: failed to download model
Error: unexpected EOF

해결 방법

# 1. 네트워크 연결 확인
ping ollama.com
curl https://ollama.com

# 2. 재시도 (단순 네트워크 오류)
ollama pull llama3.2

# 3. 기존 부분 다운로드 삭제 후 재시도
rm -rf ~/.ollama/models/blobs/sha256-*
ollama pull llama3.2

# 4. 프록시 설정 (필요시)
export HTTP_PROXY="http://proxy.example.com:8080"
export HTTPS_PROXY="http://proxy.example.com:8080"

# 5. DNS 문제 (드문 경우)
echo "1.1.1.1" | sudo tee /etc/resolv.conf

2. 손상된 모델 파일

증상
Error: invalid model file
Error: checksum mismatch

해결 방법

# 1. 모델 삭제
ollama rm llama3.2

# 2. 캐시 정리
rm -rf ~/.ollama/models/manifests/registry.ollama.ai/library/llama3.2
rm -rf ~/.ollama/models/blobs/sha256-*

# 3. 재다운로드
ollama pull llama3.2

# 4. 여전히 실패 시 - Ollama 재설치
sudo systemctl stop ollama
sudo rm -rf ~/.ollama
curl -fsSL https://ollama.com/install.sh | sh
ollama pull llama3.2

3. "Model Not Found"

증상
Error: model 'llama3.2' not found

해결 방법

# 1. 설치된 모델 확인
ollama list
# 목록에 없으면 다운로드 필요

# 2. 모델 다운로드
ollama pull llama3.2

# 3. 모델 이름 오타 확인
# 정확한 이름: llama3.2 (llama-3.2 ❌)

# 4. 사용 가능한 모델 검색
curl https://ollama.com/api/tags | jq '.models[] | .name'

4. 대형 모델 메모리 요구량

⚠️ 대형 모델 주의사항

최신 대형 모델은 매우 큰 메모리를 요구합니다. 하드웨어 사양을 반드시 확인하세요.

# Llama 4 Scout (MoE 모델)
# 약 60GB 메모리 필요 - Mixture of Experts 아키텍처
ollama pull llama4-scout

# Llama 4 Maverick (MoE 모델)
# 약 230GB 메모리 필요 - 대부분의 로컬 환경에서 실행 불가
ollama pull llama4-maverick

# DeepSeek R1 671B
# 404GB+ 메모리 필요 - 서버급 하드웨어 필수
# 대부분의 사용자는 distill 버전 추천:
ollama pull deepseek-r1:8b    # 8B - 일반 PC에서 실행 가능
ollama pull deepseek-r1:14b   # 14B - 16GB+ RAM 권장
ollama pull deepseek-r1:32b   # 32B - 32GB+ RAM 권장

# Thinking 모델 (추론 모델) 사용 시
# --think 플래그로 사고 과정 활성화
ollama run deepseek-r1:14b --think

5. 모델 버전 충돌

# 특정 버전 다운로드
ollama pull llama3.2:latest
ollama pull llama3.2:7b-q4_0

# 모든 버전 확인
ollama list
# llama3.2:latest
# llama3.2:7b-q4_0

# 특정 버전 실행
ollama run llama3.2:7b-q4_0

# 기본 버전 (latest) 변경
ollama rm llama3.2:latest
ollama pull llama3.2:7b-q4_0
ollama tag llama3.2:7b-q4_0 llama3.2:latest

일반적인 에러 메시지 (A-Z)

1. "API version mismatch"

# Ollama 버전 불일치
# 해결: Ollama 업데이트
curl -fsSL https://ollama.com/install.sh | sh
sudo systemctl restart ollama

2. "context window exceeded"

# 입력 토큰이 모델의 컨텍스트 윈도우 초과
# 해결: 입력 줄이기 또는 num_ctx 증가
PARAMETER num_ctx 8192  # Modelfile

3. "embedding model not found"

# 임베딩 모델 미설치
ollama pull nomic-embed-text

4. "failed to load model"

# 메모리 부족 또는 손상된 모델
# 1. 메모리 확인
free -h

# 2. 모델 재다운로드
ollama rm llama3.2
ollama pull llama3.2

5. "invalid modelfile syntax"

# Modelfile 문법 오류
# 확인: 대소문자, 따옴표, 줄바꿈
FROM llama3.2  # 올바름
from llama3.2  # 잘못됨 (소문자)

SYSTEM "..."  # 따옴표 필수

6. "model is too large"

# 모델이 메모리보다 큼
# 해결: 양자화 버전 사용
ollama pull llama3.2:7b-q4_0  # 7b 대신

7. "NUMA node not available"

# CPU NUMA 설정 문제 (무시 가능)
# 성능에 영향 없음, 경고 메시지일 뿐

8. "port already in use"

# 포트 11434가 이미 사용 중
sudo lsof -i :11434
sudo kill -9 [PID]

# 또는 다른 포트 사용
export OLLAMA_HOST=0.0.0.0:11435
sudo systemctl restart ollama

9. "request timeout"

# 모델 응답이 너무 느림
# API 호출 시 타임아웃 증가
requests.post(..., timeout=300)  # 5분

# 또는 더 빠른 모델 사용
ollama pull llama3.2:3b

10. "stream error"

# 스트리밍 응답 중 연결 끊김
# 해결: 재시도 또는 stream=false 사용
{
  "model": "llama3.2",
  "prompt": "...",
  "stream": false  # 스트리밍 비활성화
}

11. "temperature out of range"

# temperature 값이 범위 밖 (0.0 ~ 2.0)
PARAMETER temperature 0.8  # 0.0 ~ 2.0 사이

12. "unable to locate model"

# 커스텀 모델 파일 경로 오류
# Modelfile의 FROM 경로 확인
FROM ./model.gguf  # 상대 경로
FROM /absolute/path/model.gguf  # 절대 경로

13. "unsupported model format"

# GGUF 형식이 아닌 파일
# 해결: GGUF 변환 (llama.cpp 사용)
python convert.py --outtype f16 --outfile model.gguf model/

14. "WSL GPU not available"

# WSL2에서 GPU 미지원
# 1. Windows NVIDIA 드라이버 최신 버전 설치
# 2. WSL2에서 nvidia-smi 실행 확인
nvidia-smi

# 3. CUDA WSL 설정
# https://docs.nvidia.com/cuda/wsl-user-guide/

15. "model loading timeout"

# 모델 로드에 시간 오래 걸림
# OLLAMA_KEEP_ALIVE 증가
export OLLAMA_KEEP_ALIVE=30m  # 기본 5m
sudo systemctl restart ollama

16. "CUDA driver version insufficient"

# CUDA 드라이버 버전 낮음
nvidia-smi
# Driver Version 확인

# 535 이상 필요
sudo apt install nvidia-driver-535
sudo reboot

17. "Metal not available"

# macOS에서 Metal 미지원 (구형 Mac)
# CPU 모드로 동작 (정상)
# Intel Mac은 Metal 미지원

18. "quantization not supported"

# 지원되지 않는 양자화 형식
# 사용 가능: Q4_0, Q5_K_M, Q8_0 등
ollama pull llama3.2:7b-q4_0  # 올바름

19. "disk write error"

# 디스크 쓰기 권한 또는 공간 문제
# 1. 권한 확인
ls -ld ~/.ollama
# drwxr-xr-x 사용자 사용자

# 2. 공간 확인
df -h

# 3. 권한 수정
sudo chown -R $USER:$USER ~/.ollama

20. "unexpected token in JSON"

# API 요청 JSON 형식 오류
# 올바른 형식:
{
  "model": "llama3.2",
  "prompt": "Hello",
  "stream": false
}

# 잘못된 예:
# - 따옴표 누락
# - 마지막 쉼표
# - 잘못된 불린 값 (False → false)

데스크톱 앱 문제

1. 데스크톱 앱이 시작되지 않을 때

증상

Ollama 데스크톱 앱 아이콘을 클릭해도 실행되지 않거나, 트레이 아이콘이 나타나지 않음

해결 방법

# 1. CLI로 직접 실행하여 오류 메시지 확인
ollama serve
# 터미널에 출력되는 오류 메시지로 문제 원인 파악

# 2. 기존 프로세스 종료 후 재시도
# macOS
pkill ollama
# Windows (PowerShell)
Stop-Process -Name ollama -Force

# 3. 포트 충돌 확인
# 다른 프로세스가 11434 포트 사용 중일 수 있음
sudo lsof -i :11434  # macOS/Linux
netstat -ano | findstr 11434  # Windows

# 4. 앱 재설치
# macOS: /Applications/Ollama.app 삭제 후 재다운로드
# Windows: 제어판에서 제거 후 재설치

2. Linux 데스크톱 앱 지원

📌 참고

Linux에서는 현재 데스크톱 GUI 앱이 제공되지 않습니다. CLI(ollama serve, ollama run)만 지원됩니다. systemd 서비스로 백그라운드 실행을 설정하세요.

# Linux에서 Ollama 서비스 실행
sudo systemctl enable ollama
sudo systemctl start ollama

# 상태 확인
sudo systemctl status ollama

# 웹 UI가 필요하면 Open WebUI 사용
# https://github.com/open-webui/open-webui

클라우드 모델 연결 문제

1. 클라우드 모델 연결 실패

증상
Error: unauthorized or model not available

해결 방법

# 1. Ollama 로그인 상태 확인
ollama signin
# 인증 정보가 올바른지 확인

# 2. 인터넷 연결 확인
# 클라우드 모델은 인터넷 연결이 필수
ping ollama.com
curl https://ollama.com

# 3. 프록시 환경에서의 연결 문제
export HTTP_PROXY="http://proxy.example.com:8080"
export HTTPS_PROXY="http://proxy.example.com:8080"

# 4. 로그인 재시도
ollama signin
# 토큰이 만료되었을 수 있음
💡 로컬 vs 클라우드

로컬 모델(ollama pull로 다운로드한 모델)은 오프라인에서도 사용 가능합니다. 클라우드 모델만 인터넷 연결이 필요합니다.

디버깅 도구

로그 확인

# Linux (systemd)
sudo journalctl -u ollama -f
sudo journalctl -u ollama -n 100  # 최근 100줄
sudo journalctl -u ollama --since "1 hour ago"

# macOS
tail -f ~/.ollama/logs/server.log

# Docker
docker logs -f ollama
docker logs --tail 100 ollama

# 디버그 모드 활성화
export OLLAMA_DEBUG=1
sudo systemctl restart ollama

API 테스트

# 1. 서버 상태 확인
curl http://localhost:11434/api/tags

# 2. 모델 목록
curl http://localhost:11434/api/tags | jq

# 3. 간단한 생성 테스트
curl http://localhost:11434/api/generate -d '{
  "model": "llama3.2",
  "prompt": "Hello",
  "stream": false
}' | jq

# 4. 스트리밍 테스트
curl http://localhost:11434/api/generate -d '{
  "model": "llama3.2",
  "prompt": "Tell me a story",
  "stream": true
}'

시스템 모니터링

# CPU, 메모리 사용률
top
htop

# GPU 모니터링 (NVIDIA)
watch -n 1 nvidia-smi

# 네트워크 연결
netstat -tuln | grep 11434
ss -tuln | grep 11434

# 디스크 I/O
iostat -x 1

# 프로세스 상세 정보
ps aux | grep ollama
pstree -p | grep ollama

벤치마크

# 간단한 성능 테스트
time ollama run llama3.2 "Count from 1 to 100"

# Python 벤치마크 스크립트
import time
import requests

def benchmark(model, prompt, iterations=10):
    times = []
    for _ in range(iterations):
        start = time.time()
        response = requests.post(
            'http://localhost:11434/api/generate',
            json={'model': model, 'prompt': prompt, 'stream': False}
        )
        duration = time.time() - start
        times.append(duration)

    print(f"평균: {sum(times)/len(times):.2f}초")
    print(f"최소: {min(times):.2f}초")
    print(f"최대: {max(times):.2f}초")

benchmark("llama3.2", "Hello, how are you?")

자주 묻는 질문 (FAQ)

Q1. Ollama를 완전히 삭제하려면?

# Linux
sudo systemctl stop ollama
sudo systemctl disable ollama
sudo rm /etc/systemd/system/ollama.service
sudo rm /usr/local/bin/ollama
rm -rf ~/.ollama

# macOS
rm -rf /Applications/Ollama.app
rm -rf ~/.ollama
rm /usr/local/bin/ollama

# Windows
# 제어판 → 프로그램 제거
# %USERPROFILE%\.ollama 폴더 삭제

Q2. 모델 다운로드 폴더를 옮기려면?

# 1. 새 폴더로 모델 복사
sudo mkdir -p /mnt/storage/ollama
sudo cp -r ~/.ollama/* /mnt/storage/ollama/

# 2. 환경 변수 설정
sudo systemctl edit ollama
[Service]
Environment="OLLAMA_MODELS=/mnt/storage/ollama"

# 3. 재시작
sudo systemctl restart ollama

# 4. 확인
ollama list

Q3. API 키 인증을 추가하려면?

# NGINX 리버스 프록시에 Basic Auth 추가
# nginx.conf
location / {
    auth_basic "Restricted";
    auth_basic_user_file /etc/nginx/.htpasswd;
    proxy_pass http://localhost:11434;
}

# htpasswd 생성
sudo htpasswd -c /etc/nginx/.htpasswd admin

# 사용
curl -u admin:password http://your-server/api/generate ...

Q4. 여러 모델을 동시에 사용하려면?

# OLLAMA_MAX_LOADED_MODELS 증가
export OLLAMA_MAX_LOADED_MODELS=3  # 최대 3개
sudo systemctl restart ollama

# 주의: 메모리 사용량 증가
# 모델당 3-7GB → 총 9-21GB 필요

Q5. Ollama를 백그라운드에서 실행하지 않으려면?

# Linux - systemd 비활성화
sudo systemctl stop ollama
sudo systemctl disable ollama

# 수동 실행 (포그라운드)
ollama serve

# 또는 백그라운드
ollama serve &

# 종료
pkill ollama

Q6. 특정 IP만 접속 허용하려면?

# 방화벽 규칙 (UFW)
sudo ufw deny 11434/tcp
sudo ufw allow from 192.168.1.0/24 to any port 11434

# NGINX에서 IP 제한
location / {
    allow 192.168.1.0/24;
    deny all;
    proxy_pass http://localhost:11434;
}

Q7. CPU 사용량이 너무 높습니다

# 1. GPU 사용 확인 (GPU 있으면)
nvidia-smi

# 2. 더 작은 모델 사용
ollama pull phi3:mini

# 3. 컨텍스트 윈도우 줄이기
PARAMETER num_ctx 1024

# 4. 동시 요청 수 제한
export OLLAMA_NUM_PARALLEL=1

Q8. 오프라인 환경에서 사용하려면?

# 1. 인터넷 연결된 PC에서 모델 다운로드
ollama pull llama3.2

# 2. 모델 폴더 압축
tar -czf ollama-models.tar.gz ~/.ollama

# 3. 오프라인 PC로 전송
scp ollama-models.tar.gz user@offline-pc:~

# 4. 오프라인 PC에서 압축 해제
tar -xzf ollama-models.tar.gz -C ~/

# 5. Ollama 설치 (인터넷 필요)
# 설치 파일을 미리 다운로드하여 전송

추가 리소스

공식 문서

커뮤니티

관련 도구

다음 단계

문제를 해결했다면, 이제 Ollama를 실전에서 활용해봅시다!

📚 계속 학습하기
  1. Ollama 소개 - 기본 개념 복습
  2. 도구 연동 - Continue, Aider 설정
  3. 고급 활용 - Modelfile, RAG, 에이전트
💡 문제 해결 체크리스트
  1. 로그 확인: sudo journalctl -u ollama -n 100
  2. 서비스 재시작: sudo systemctl restart ollama
  3. 모델 재다운로드: ollama rm → ollama pull
  4. GPU 확인: nvidia-smi
  5. 메모리 확인: free -h
  6. 디스크 확인: df -h
  7. API 테스트: curl localhost:11434/api/tags
  8. 최종 수단: Ollama 재설치

핵심 정리

  • Ollama 트러블슈팅의 핵심 개념과 흐름을 정리합니다.
  • 설치 문제를 단계별로 이해합니다.
  • 실전 적용 시 기준과 주의점을 확인합니다.

실무 팁

  • 입력/출력 예시를 고정해 재현성을 확보하세요.
  • Ollama 트러블슈팅 범위를 작게 잡고 단계적으로 확장하세요.
  • 설치 문제 조건을 문서화해 대응 시간을 줄이세요.