Ollama 트러블슈팅

설치 문제, 실행 오류, GPU 인식, 성능 저하 등 모든 문제 해결 가이드

업데이트 안내: 모델/요금/버전/정책 등 시점에 민감한 정보는 변동될 수 있습니다. 최신 내용은 공식 문서를 확인하세요.
🔍 빠른 진단

증상별 바로가기:

설치 문제

1. "ollama: command not found"

증상
$ ollama --version
bash: ollama: command not found

원인

  • Ollama가 설치되지 않음
  • PATH에 Ollama 경로가 없음
  • 설치가 중간에 실패함

해결 방법

# 1. Ollama 설치 확인
which ollama
# 출력 없음 → 미설치

# 2. 재설치 (Linux/macOS)
curl -fsSL https://ollama.com/install.sh | sh

# 3. 수동 PATH 추가 (필요시)
export PATH="/usr/local/bin:$PATH"
echo 'export PATH="/usr/local/bin:$PATH"' >> ~/.bashrc
source ~/.bashrc

# 4. 확인
ollama --version

Windows

# PowerShell에서
Get-Command ollama
# CommandNotFoundException → 재설치 필요

# 환경 변수 PATH 확인
$env:Path -split ';' | Select-String ollama

# PATH 추가 (영구 설정)
[System.Environment]::SetEnvironmentVariable(
    'Path',
    $env:Path + ';C:\Users\[사용자]\AppData\Local\Programs\Ollama\bin',
    [System.EnvironmentVariableTarget]::User
)

2. 권한 오류 (Permission Denied)

증상
Permission denied when trying to install Ollama

해결 방법

# Linux - sudo 권한으로 재설치
curl -fsSL https://ollama.com/install.sh | sudo sh

# macOS - 관리자 권한
sudo curl -fsSL https://ollama.com/install.sh | sh

# 파일 권한 확인
ls -la /usr/local/bin/ollama
# -rwxr-xr-x ... ollama

# 권한 수정 (필요시)
sudo chmod +x /usr/local/bin/ollama

3. systemd 서비스 생성 실패

증상
Failed to enable unit: Unit file ollama.service does not exist

해결 방법

# 1. 서비스 파일 수동 생성
sudo tee /etc/systemd/system/ollama.service <<EOF
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="OLLAMA_HOST=0.0.0.0:11434"

[Install]
WantedBy=default.target
EOF

# 2. 사용자 생성 (없으면)
sudo useradd -r -s /bin/false -m -d /usr/share/ollama ollama

# 3. systemd 리로드 및 시작
sudo systemctl daemon-reload
sudo systemctl enable ollama
sudo systemctl start ollama

# 4. 상태 확인
sudo systemctl status ollama

연결 문제

1. "Connection Refused" (포트 11434)

증상
curl: (7) Failed to connect to localhost port 11434: Connection refused

원인

  • Ollama 서비스가 실행되지 않음
  • 포트 11434가 다른 프로세스에 의해 사용 중
  • 방화벽이 포트를 차단

해결 방법

# 1. Ollama 서비스 상태 확인
# Linux
sudo systemctl status ollama
# Active: active (running) 이어야 함

# macOS
ps aux | grep ollama
# ollama serve 프로세스가 있어야 함

# Windows
Get-Service Ollama

# 2. 서비스 시작
# Linux
sudo systemctl start ollama

# macOS
ollama serve &

# 3. 포트 사용 확인
sudo lsof -i :11434
# ollama ... LISTEN 이어야 함

# 다른 프로세스가 사용 중이면 종료
sudo kill -9 [PID]

# 4. 방화벽 확인 (Linux)
sudo ufw status
sudo ufw allow 11434/tcp

# 5. 재시작
sudo systemctl restart ollama

2. "Connection Timeout" (원격 접속)

증상
curl: (28) Failed to connect to 192.168.1.100 port 11434: Connection timed out

해결 방법

# 1. OLLAMA_HOST 환경 변수 설정 (0.0.0.0으로)
# Linux - systemd 서비스 편집
sudo systemctl edit ollama
# 다음 추가:
[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"

sudo systemctl restart ollama

# 2. 방화벽 포트 열기
# Ubuntu/Debian
sudo ufw allow 11434/tcp

# CentOS/RHEL
sudo firewall-cmd --permanent --add-port=11434/tcp
sudo firewall-cmd --reload

# 3. 클라우드 보안 그룹 설정 (AWS, GCP 등)
# Inbound 규칙: TCP 11434 허용

# 4. 테스트
curl http://[서버IP]:11434/api/tags

3. SSL/TLS 오류

증상
SSL certificate problem: unable to get local issuer certificate

해결 방법

# 1. 인증서 무시 (테스트 전용)
curl -k https://localhost:11434/api/tags

# 2. CA 인증서 설치 (프로덕션)
# Ubuntu/Debian
sudo apt install ca-certificates
sudo update-ca-certificates

# 3. Python requests에서
import requests
response = requests.post(
    'https://localhost:11434/api/generate',
    json={...},
    verify=False  # 또는 인증서 경로
)

GPU 문제

1. GPU 미감지 (NVIDIA)

증상
Ollama는 실행되지만 CPU만 사용, GPU 사용률 0%

진단

# 1. nvidia-smi 실행
nvidia-smi
# GPU 정보가 표시되어야 함

# 오류 발생 시 → 드라이버 문제
# "NVIDIA-SMI has failed..." → 드라이버 재설치 필요

# 2. CUDA 버전 확인
nvcc --version
# CUDA 11.8+ 필요

# 3. Ollama 로그 확인
sudo journalctl -u ollama -n 100
# "GPU" 또는 "CUDA" 관련 메시지 찾기

해결 방법

# 1. NVIDIA 드라이버 재설치 (Ubuntu)
# 기존 드라이버 제거
sudo apt purge nvidia-*
sudo apt autoremove

# 최신 드라이버 설치
sudo apt update
sudo apt install nvidia-driver-535

# 재부팅 필수
sudo reboot

# 2. CUDA Toolkit 설치 (선택사항)
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-keyring_1.1-1_all.deb
sudo dpkg -i cuda-keyring_1.1-1_all.deb
sudo apt update
sudo apt install cuda-toolkit-12-3

# 3. Ollama 재시작
sudo systemctl restart ollama

# 4. GPU 사용 확인
ollama run llama3.2 "Hello"
# 동시에 다른 터미널에서
watch -n 1 nvidia-smi
# GPU 사용률이 올라가야 함

2. GPU 메모리 부족 (OOM)

증상
CUDA out of memory. Tried to allocate X MiB

해결 방법

# 1. 더 작은 모델 사용
ollama pull llama3.2:3b      # 3B 모델 (2GB VRAM)
ollama pull phi3:mini        # Phi-3 Mini (2GB VRAM)

# 2. 양자화 버전 사용
ollama pull llama3.2:7b-q4_0  # 4-bit 양자화 (4GB VRAM)

# 3. GPU 레이어 수 제한
export OLLAMA_NUM_GPU=20  # 일부만 GPU, 나머지는 CPU
sudo systemctl restart ollama

# 4. 컨텍스트 윈도우 줄이기
# Modelfile
PARAMETER num_ctx 2048  # 기본 4096 → 2048

# 5. 다른 GPU 프로세스 종료
nvidia-smi
# GPU 메모리 사용 중인 프로세스 확인
kill -9 [PID]

3. 다중 GPU 설정

# 특정 GPU만 사용
export CUDA_VISIBLE_DEVICES=0  # GPU 0만 사용
export CUDA_VISIBLE_DEVICES=0,1  # GPU 0, 1 사용

# systemd 서비스에 적용
sudo systemctl edit ollama
[Service]
Environment="CUDA_VISIBLE_DEVICES=0,1"

sudo systemctl restart ollama

# 확인
nvidia-smi
# 지정한 GPU만 사용 중이어야 함

4. AMD GPU (ROCm) 문제

⚠️ 실험적 지원

AMD GPU는 ROCm을 통해 지원되지만, NVIDIA CUDA보다 안정성이 낮습니다.

# ROCm 설치 (Ubuntu)
wget https://repo.radeon.com/amdgpu-install/latest/ubuntu/focal/amdgpu-install_*_all.deb
sudo dpkg -i amdgpu-install_*_all.deb
sudo amdgpu-install --usecase=rocm

# 재부팅
sudo reboot

# ROCm 확인
rocm-smi

# Ollama 재시작
sudo systemctl restart ollama

5. Apple Silicon (M1/M2/M3) 최적화

# Metal 가속 자동 활성화 (설정 불필요)
ollama run llama3.2

# 메모리 압력 모니터링
sudo memory_pressure

# Activity Monitor에서 확인
# GPU 탭에서 "ollama" 프로세스의 GPU 사용률 확인

# 메모리 스왑 최소화
# 더 작은 모델 사용
ollama pull llama3.2:3b  # M1 8GB에 적합

성능 문제

1. 응답 속도가 매우 느림

증상

1-2 tokens/sec 이하, 응답에 수 분 소요

원인 및 해결

# 1. CPU만 사용 (GPU 미활용)
# → GPU 설정 확인 (위 GPU 섹션 참조)
nvidia-smi  # GPU 사용률 0% → 문제

# 2. 모델이 너무 큼
# → 더 작은 모델 사용
ollama pull llama3.2:7b  # 70B → 7B

# 3. RAM 부족 (스왑 사용)
free -h
# Swap 사용량이 높으면 문제
# → 모델 크기 줄이기 또는 RAM 증설

# 4. 컨텍스트 윈도우가 너무 큼
# Modelfile
PARAMETER num_ctx 2048  # 8192 → 2048

# 5. 다른 프로세스가 리소스 사용
top
# CPU/메모리 많이 쓰는 프로세스 종료

2. 메모리 부족 (OOM Killed)

증상
Killed
dmesg | grep -i "out of memory"
# Out of memory: Killed process [PID] (ollama)

해결 방법

# 1. 메모리 사용량 확인
free -h
# 사용 가능한 메모리 확인

# 2. 더 작은 모델 사용
# 모델별 RAM 요구사항:
# - 3B: 8GB
# - 7B: 16GB
# - 13B: 24GB
# - 70B: 64GB+

ollama pull phi3:mini  # 3B, 8GB RAM

# 3. 양자화 버전 사용
ollama pull llama3.2:7b-q4_0  # 절반 크기

# 4. 스왑 메모리 증가 (임시 방편)
sudo fallocate -l 8G /swapfile
sudo chmod 600 /swapfile
sudo mkswap /swapfile
sudo swapon /swapfile

# 5. 동시 실행 모델 수 제한
export OLLAMA_MAX_LOADED_MODELS=1
sudo systemctl restart ollama

3. 디스크 공간 부족

증상
Error: no space left on device

해결 방법

# 1. 디스크 사용량 확인
df -h
# ~/.ollama 경로의 사용량 확인

du -sh ~/.ollama/models
# 모델 총 크기 확인

# 2. 미사용 모델 삭제
ollama list
ollama rm [모델명]

# 3. 모델 저장 경로 변경 (더 큰 디스크로)
# Linux
sudo systemctl edit ollama
[Service]
Environment="OLLAMA_MODELS=/mnt/storage/ollama"

sudo mkdir -p /mnt/storage/ollama
sudo chown ollama:ollama /mnt/storage/ollama
sudo systemctl restart ollama

# 4. Docker 이미지 정리 (Docker 사용 시)
docker system prune -a

4. 동시 요청 시 느려짐

# 병렬 요청 수 증가
export OLLAMA_NUM_PARALLEL=4  # 기본 1 → 4

# systemd 서비스
sudo systemctl edit ollama
[Service]
Environment="OLLAMA_NUM_PARALLEL=4"

sudo systemctl restart ollama

# 주의: 메모리 사용량 증가
# 병렬 처리 수 = 동시 로드 모델 수

모델 문제

1. 모델 다운로드 실패

증상
Error: failed to download model
Error: unexpected EOF

해결 방법

# 1. 네트워크 연결 확인
ping ollama.com
curl https://ollama.com

# 2. 재시도 (단순 네트워크 오류)
ollama pull llama3.2

# 3. 기존 부분 다운로드 삭제 후 재시도
rm -rf ~/.ollama/models/blobs/sha256-*
ollama pull llama3.2

# 4. 프록시 설정 (필요시)
export HTTP_PROXY="http://proxy.example.com:8080"
export HTTPS_PROXY="http://proxy.example.com:8080"

# 5. DNS 문제 (드문 경우)
echo "1.1.1.1" | sudo tee /etc/resolv.conf

2. 손상된 모델 파일

증상
Error: invalid model file
Error: checksum mismatch

해결 방법

# 1. 모델 삭제
ollama rm llama3.2

# 2. 캐시 정리
rm -rf ~/.ollama/models/manifests/registry.ollama.ai/library/llama3.2
rm -rf ~/.ollama/models/blobs/sha256-*

# 3. 재다운로드
ollama pull llama3.2

# 4. 여전히 실패 시 - Ollama 재설치
sudo systemctl stop ollama
sudo rm -rf ~/.ollama
curl -fsSL https://ollama.com/install.sh | sh
ollama pull llama3.2

3. "Model Not Found"

증상
Error: model 'llama3.2' not found

해결 방법

# 1. 설치된 모델 확인
ollama list
# 목록에 없으면 다운로드 필요

# 2. 모델 다운로드
ollama pull llama3.2

# 3. 모델 이름 오타 확인
# 정확한 이름: llama3.2 (llama-3.2 ❌)

# 4. 사용 가능한 모델 검색
curl https://ollama.com/api/tags | jq '.models[] | .name'

4. 모델 버전 충돌

# 특정 버전 다운로드
ollama pull llama3.2:latest
ollama pull llama3.2:7b-q4_0

# 모든 버전 확인
ollama list
# llama3.2:latest
# llama3.2:7b-q4_0

# 특정 버전 실행
ollama run llama3.2:7b-q4_0

# 기본 버전 (latest) 변경
ollama rm llama3.2:latest
ollama pull llama3.2:7b-q4_0
ollama tag llama3.2:7b-q4_0 llama3.2:latest

일반적인 에러 메시지 (A-Z)

1. "API version mismatch"

# Ollama 버전 불일치
# 해결: Ollama 업데이트
curl -fsSL https://ollama.com/install.sh | sh
sudo systemctl restart ollama

2. "context window exceeded"

# 입력 토큰이 모델의 컨텍스트 윈도우 초과
# 해결: 입력 줄이기 또는 num_ctx 증가
PARAMETER num_ctx 8192  # Modelfile

3. "embedding model not found"

# 임베딩 모델 미설치
ollama pull nomic-embed-text

4. "failed to load model"

# 메모리 부족 또는 손상된 모델
# 1. 메모리 확인
free -h

# 2. 모델 재다운로드
ollama rm llama3.2
ollama pull llama3.2

5. "invalid modelfile syntax"

# Modelfile 문법 오류
# 확인: 대소문자, 따옴표, 줄바꿈
FROM llama3.2  # 올바름
from llama3.2  # 잘못됨 (소문자)

SYSTEM "..."  # 따옴표 필수

6. "model is too large"

# 모델이 메모리보다 큼
# 해결: 양자화 버전 사용
ollama pull llama3.2:7b-q4_0  # 7b 대신

7. "NUMA node not available"

# CPU NUMA 설정 문제 (무시 가능)
# 성능에 영향 없음, 경고 메시지일 뿐

8. "port already in use"

# 포트 11434가 이미 사용 중
sudo lsof -i :11434
sudo kill -9 [PID]

# 또는 다른 포트 사용
export OLLAMA_HOST=0.0.0.0:11435
sudo systemctl restart ollama

9. "request timeout"

# 모델 응답이 너무 느림
# API 호출 시 타임아웃 증가
requests.post(..., timeout=300)  # 5분

# 또는 더 빠른 모델 사용
ollama pull llama3.2:3b

10. "stream error"

# 스트리밍 응답 중 연결 끊김
# 해결: 재시도 또는 stream=false 사용
{
  "model": "llama3.2",
  "prompt": "...",
  "stream": false  # 스트리밍 비활성화
}

11. "temperature out of range"

# temperature 값이 범위 밖 (0.0 ~ 2.0)
PARAMETER temperature 0.8  # 0.0 ~ 2.0 사이

12. "unable to locate model"

# 커스텀 모델 파일 경로 오류
# Modelfile의 FROM 경로 확인
FROM ./model.gguf  # 상대 경로
FROM /absolute/path/model.gguf  # 절대 경로

13. "unsupported model format"

# GGUF 형식이 아닌 파일
# 해결: GGUF 변환 (llama.cpp 사용)
python convert.py --outtype f16 --outfile model.gguf model/

14. "WSL GPU not available"

# WSL2에서 GPU 미지원
# 1. Windows NVIDIA 드라이버 최신 버전 설치
# 2. WSL2에서 nvidia-smi 실행 확인
nvidia-smi

# 3. CUDA WSL 설정
# https://docs.nvidia.com/cuda/wsl-user-guide/

15. "model loading timeout"

# 모델 로드에 시간 오래 걸림
# OLLAMA_KEEP_ALIVE 증가
export OLLAMA_KEEP_ALIVE=30m  # 기본 5m
sudo systemctl restart ollama

16. "CUDA driver version insufficient"

# CUDA 드라이버 버전 낮음
nvidia-smi
# Driver Version 확인

# 535 이상 필요
sudo apt install nvidia-driver-535
sudo reboot

17. "Metal not available"

# macOS에서 Metal 미지원 (구형 Mac)
# CPU 모드로 동작 (정상)
# Intel Mac은 Metal 미지원

18. "quantization not supported"

# 지원되지 않는 양자화 형식
# 사용 가능: Q4_0, Q5_K_M, Q8_0 등
ollama pull llama3.2:7b-q4_0  # 올바름

19. "disk write error"

# 디스크 쓰기 권한 또는 공간 문제
# 1. 권한 확인
ls -ld ~/.ollama
# drwxr-xr-x 사용자 사용자

# 2. 공간 확인
df -h

# 3. 권한 수정
sudo chown -R $USER:$USER ~/.ollama

20. "unexpected token in JSON"

# API 요청 JSON 형식 오류
# 올바른 형식:
{
  "model": "llama3.2",
  "prompt": "Hello",
  "stream": false
}

# 잘못된 예:
# - 따옴표 누락
# - 마지막 쉼표
# - 잘못된 불린 값 (False → false)

디버깅 도구

로그 확인

# Linux (systemd)
sudo journalctl -u ollama -f
sudo journalctl -u ollama -n 100  # 최근 100줄
sudo journalctl -u ollama --since "1 hour ago"

# macOS
tail -f ~/.ollama/logs/server.log

# Docker
docker logs -f ollama
docker logs --tail 100 ollama

# 디버그 모드 활성화
export OLLAMA_DEBUG=1
sudo systemctl restart ollama

API 테스트

# 1. 서버 상태 확인
curl http://localhost:11434/api/tags

# 2. 모델 목록
curl http://localhost:11434/api/tags | jq

# 3. 간단한 생성 테스트
curl http://localhost:11434/api/generate -d '{
  "model": "llama3.2",
  "prompt": "Hello",
  "stream": false
}' | jq

# 4. 스트리밍 테스트
curl http://localhost:11434/api/generate -d '{
  "model": "llama3.2",
  "prompt": "Tell me a story",
  "stream": true
}'

시스템 모니터링

# CPU, 메모리 사용률
top
htop

# GPU 모니터링 (NVIDIA)
watch -n 1 nvidia-smi

# 네트워크 연결
netstat -tuln | grep 11434
ss -tuln | grep 11434

# 디스크 I/O
iostat -x 1

# 프로세스 상세 정보
ps aux | grep ollama
pstree -p | grep ollama

벤치마크

# 간단한 성능 테스트
time ollama run llama3.2 "Count from 1 to 100"

# Python 벤치마크 스크립트
import time
import requests

def benchmark(model, prompt, iterations=10):
    times = []
    for _ in range(iterations):
        start = time.time()
        response = requests.post(
            'http://localhost:11434/api/generate',
            json={'model': model, 'prompt': prompt, 'stream': False}
        )
        duration = time.time() - start
        times.append(duration)

    print(f"평균: {sum(times)/len(times):.2f}초")
    print(f"최소: {min(times):.2f}초")
    print(f"최대: {max(times):.2f}초")

benchmark("llama3.2", "Hello, how are you?")

자주 묻는 질문 (FAQ)

Q1. Ollama를 완전히 삭제하려면?

# Linux
sudo systemctl stop ollama
sudo systemctl disable ollama
sudo rm /etc/systemd/system/ollama.service
sudo rm /usr/local/bin/ollama
rm -rf ~/.ollama

# macOS
rm -rf /Applications/Ollama.app
rm -rf ~/.ollama
rm /usr/local/bin/ollama

# Windows
# 제어판 → 프로그램 제거
# %USERPROFILE%\.ollama 폴더 삭제

Q2. 모델 다운로드 폴더를 옮기려면?

# 1. 새 폴더로 모델 복사
sudo mkdir -p /mnt/storage/ollama
sudo cp -r ~/.ollama/* /mnt/storage/ollama/

# 2. 환경 변수 설정
sudo systemctl edit ollama
[Service]
Environment="OLLAMA_MODELS=/mnt/storage/ollama"

# 3. 재시작
sudo systemctl restart ollama

# 4. 확인
ollama list

Q3. API 키 인증을 추가하려면?

# NGINX 리버스 프록시에 Basic Auth 추가
# nginx.conf
location / {
    auth_basic "Restricted";
    auth_basic_user_file /etc/nginx/.htpasswd;
    proxy_pass http://localhost:11434;
}

# htpasswd 생성
sudo htpasswd -c /etc/nginx/.htpasswd admin

# 사용
curl -u admin:password http://your-server/api/generate ...

Q4. 여러 모델을 동시에 사용하려면?

# OLLAMA_MAX_LOADED_MODELS 증가
export OLLAMA_MAX_LOADED_MODELS=3  # 최대 3개
sudo systemctl restart ollama

# 주의: 메모리 사용량 증가
# 모델당 3-7GB → 총 9-21GB 필요

Q5. Ollama를 백그라운드에서 실행하지 않으려면?

# Linux - systemd 비활성화
sudo systemctl stop ollama
sudo systemctl disable ollama

# 수동 실행 (포그라운드)
ollama serve

# 또는 백그라운드
ollama serve &

# 종료
pkill ollama

Q6. 특정 IP만 접속 허용하려면?

# 방화벽 규칙 (UFW)
sudo ufw deny 11434/tcp
sudo ufw allow from 192.168.1.0/24 to any port 11434

# NGINX에서 IP 제한
location / {
    allow 192.168.1.0/24;
    deny all;
    proxy_pass http://localhost:11434;
}

Q7. CPU 사용량이 너무 높습니다

# 1. GPU 사용 확인 (GPU 있으면)
nvidia-smi

# 2. 더 작은 모델 사용
ollama pull phi3:mini

# 3. 컨텍스트 윈도우 줄이기
PARAMETER num_ctx 1024

# 4. 동시 요청 수 제한
export OLLAMA_NUM_PARALLEL=1

Q8. 오프라인 환경에서 사용하려면?

# 1. 인터넷 연결된 PC에서 모델 다운로드
ollama pull llama3.2

# 2. 모델 폴더 압축
tar -czf ollama-models.tar.gz ~/.ollama

# 3. 오프라인 PC로 전송
scp ollama-models.tar.gz user@offline-pc:~

# 4. 오프라인 PC에서 압축 해제
tar -xzf ollama-models.tar.gz -C ~/

# 5. Ollama 설치 (인터넷 필요)
# 설치 파일을 미리 다운로드하여 전송

추가 리소스

공식 문서

커뮤니티

관련 도구

다음 단계

문제를 해결했다면, 이제 Ollama를 실전에서 활용해봅시다!

📚 계속 학습하기
  1. Ollama 소개 - 기본 개념 복습
  2. 도구 연동 - Continue, Aider 설정
  3. 고급 활용 - Modelfile, RAG, 에이전트
💡 문제 해결 체크리스트
  1. 로그 확인: sudo journalctl -u ollama -n 100
  2. 서비스 재시작: sudo systemctl restart ollama
  3. 모델 재다운로드: ollama rm → ollama pull
  4. GPU 확인: nvidia-smi
  5. 메모리 확인: free -h
  6. 디스크 확인: df -h
  7. API 테스트: curl localhost:11434/api/tags
  8. 최종 수단: Ollama 재설치

핵심 정리

  • Ollama 트러블슈팅의 핵심 개념과 흐름을 정리합니다.
  • 설치 문제를 단계별로 이해합니다.
  • 실전 적용 시 기준과 주의점을 확인합니다.

실무 팁

  • 입력/출력 예시를 고정해 재현성을 확보하세요.
  • Ollama 트러블슈팅 범위를 작게 잡고 단계적으로 확장하세요.
  • 설치 문제 조건을 문서화해 대응 시간을 줄이세요.