OpenCode 가이드

GitHub Stars 140K+ 터미널 AI 코딩 에이전트 OpenCode 완전 가이드. sst/opencode v1.14.x 기준 설치·병렬 세션·MCP·커스텀 에이전트·Zen/Black 게이트웨이 실전 운영.

현재 상태와 저장소 구분

OpenCode는 SST(Serverless Stack) 팀이 Go로 개발한 터미널 AI 코딩 에이전트입니다. 2026년 4월 기준 GitHub Stars 140,000+, 850여 명의 기여자, 최신 버전 v1.14.24 (2026-04-24)로 활발하게 개발 중입니다. 저장소가 여러 번 이전되었으므로 아래처럼 분리해서 이해하세요.

구분 저장소 상태 설명
현재 활성 (메인) sst/opencode ✅ 활성 개발 SST팀 주관, opencode.ai 공식 문서 연동, v1.14.x 출시 중
과거 아카이브 계열 1 opencode-ai/opencode 🔴 2025-09-18 아카이브 과거 레퍼런스 보존용, 신규 기능 개발 대상 아님
과거 아카이브 계열 2 anomalyco/opencode 🔴 아카이브 sst/opencode 이전 단계, 현재 비활성
핵심 판단 기준

최신 설치/설정/기능 확인은 opencode.ai/docssst/opencode를 우선 기준으로 보세요. GitHub 검색에서 나오는 다른 저장소들은 과거 버전입니다.

2026-04 기준 주요 지표
  • GitHub Stars: 140,000+ (Aider 43K, Claude Code 71K 대비 압도적 성장)
  • 최신 버전: v1.14.24 (2026-04-24)
  • 기여자: 850+명, 커밋 11,000+
  • 월간 활성 개발자: 약 650만 명
  • 언어: Go (Bubble Tea TUI), MIT 라이선스
  • 지원 LLM 제공자: 75개 이상 (Claude, GPT, Gemini, Mistral, DeepSeek, Grok, NVIDIA, GitHub Copilot OAuth, Ollama 등)

OpenCode 개요

OpenCode는 터미널 중심 워크플로우를 기반으로 코드 생성, 수정, 파일 탐색, 명령 실행을 연결하는 오픈소스 AI 코딩 에이전트입니다. 단독 TUI/CLI로 사용할 수 있고, 최근 공식 문서는 터미널, 데스크톱 앱, IDE 확장을 함께 안내합니다.

  • 핵심 인터페이스: TUI/CLI 기반 상호작용
  • 추가 표면: 데스크톱 앱과 IDE 확장 지원
  • IDE 연동: 통합 터미널에서 실행 시 확장 자동 설치 경로 제공
  • 모델 연결: 다양한 제공자 또는 OpenCode Zen 사용 가능
  • 워크플로우: Plan 모드와 Build 모드를 분리해 안전하게 작업
OpenCode를 이렇게 이해하면 됩니다
  • 오픈소스 에이전트 워크플로우: 터미널 중심이지만 데스크톱과 IDE 확장까지 넓히는 방향의 도구입니다.
  • Plan과 Build 분리: 먼저 생각하고, 그다음 실행하는 흐름을 명시적으로 나누기 좋습니다.
  • 병렬 세션: 탭 전환으로 여러 에이전트 세션을 동시에 운영할 수 있는 TUI 구조.
  • 운영 유연성: 직접 모델을 연결하거나 Zen·Black 게이트웨이를 통해 정책과 비용을 조정할 수 있습니다.
1. Plan 작업 구조화 범위와 순서 정리 2. Build 파일 수정 / 명령 실행 결과 수집 3. Review 변경 검토 추가 지시 또는 적용

그림: OpenCode를 간단히 이해하는 Plan → Build → Review 흐름

개발자 터미널/IDE OpenCode TUI/CLI 에이전트 오케스트레이션 모델 제공자 직접 연결 또는 Zen 실행 결과 코드 변경안, 명령 결과, 설명, 후속 제안 사용자 승인 후 적용

그림 1: OpenCode 기본 처리 구조

설치와 빠른 시작

아래 명령은 공식 문서(sst/opencode) 기준 설치 방법입니다. 운영체제와 패키지 관리자 환경에 맞춰 하나만 선택하면 됩니다.

Shell
# Node 패키지 매니저 기반
npm install -g opencode-ai
# 또는
bun install -g opencode-ai
# 또는
pnpm install -g opencode-ai

# macOS Homebrew
brew install sst/tap/opencode

# Windows (Scoop)
scoop install opencode

# Windows ARM64도 지원 (v1.14.x부터)

# 또는 GitHub Releases에서 바이너리 직접 다운로드
# https://github.com/sst/opencode/releases

# 실행
opencode

빠른 시작: 권장 모델 설정

Shell
# 최고 성능: Claude Opus 4.7
export ANTHROPIC_API_KEY=sk-ant-...
opencode

# OpenAI GPT-5.5
export OPENAI_API_KEY=sk-...
opencode

# 무료: Ollama (로컬)
ollama run qwen3.6:35b-a3b
opencode  # TUI에서 Ollama 모델 선택

# GitHub Copilot OAuth (기존 구독 활용)
opencode  # 설정에서 GitHub 로그인 후 copilot 모델 선택

opencode.json 설정 파일

JSON
{
  "$schema": "https://opencode.ai/config.json",
  "model": "anthropic/claude-opus-4-7-20251016",
  "small_model": "anthropic/claude-haiku-4-5-20251001",
  "mode": "build"
}

IDE 연동

  • VS Code, Cursor, Windsurf 통합 터미널에서 opencode 실행
  • IDE CLI 명령이 PATH에 있어야 자동 연동: VS Code → code, Cursor → cursor, Windsurf → windsurf
  • 현재 OpenCode는 "터미널 중심" 사용이 기본이며, IDE 확장은 이를 보조

주요 기능 (v1.14.x 기준)

병렬 세션 (탭 기반)

OpenCode TUI는 Bubble Tea 기반으로 구현되어, 하나의 프로젝트에서 여러 에이전트 세션을 동시에 탭으로 운영합니다. 서로 다른 기능 작업을 병렬로 진행하거나, 실험적 변경과 안정 작업을 분리하기에 최적입니다.

TUI 단축키
# 새 세션 탭 열기
Ctrl+N

# 탭 간 전환
Ctrl+Tab / Ctrl+Shift+Tab

# 세션 닫기
Ctrl+W

# 에이전트 중단
Esc

# 세션 컴팩션 설정 (긴 대화 압축)
# preserve_recent_tokens: 최근 토큰 유지량 설정

MCP (Model Context Protocol) 지원

OpenCode는 로컬 및 원격 MCP 서버를 모두 지원합니다. v1.14.x부터 실험적 HTTP API를 통해 외부 도구(모바일 앱, CI 등)에서 세션을 직접 제어할 수 있습니다.

opencode.json
{
  "$schema": "https://opencode.ai/config.json",
  "model": "anthropic/claude-opus-4-7-20251016",
  "mcp": {
    "servers": {
      "filesystem": {
        "type": "local",
        "command": "npx",
        "args": ["-y", "@modelcontextprotocol/server-filesystem", "."]
      },
      "github": {
        "type": "remote",
        "url": "https://mcp.github.com"
      }
    }
  }
}

커스텀 에이전트

마크다운 파일로 커스텀 에이전트를 정의하고, @mention으로 TUI 내에서 호출합니다. 역할별 전문 에이전트를 만들어 팀 전체가 공유할 수 있습니다.

Markdown (.opencode/agents/reviewer.md)
---
name: reviewer
description: 코드 리뷰 전문 에이전트
model: anthropic/claude-opus-4-7-20251016
---

당신은 시니어 코드 리뷰어입니다.
- 버그, 보안 취약점, 성능 문제를 우선 지적하세요
- 한국어로 리뷰를 작성하세요
- 개선 코드 예시를 반드시 포함하세요
TUI 사용
# 커스텀 에이전트 호출
@reviewer src/auth.py를 리뷰해줘

# 슬래시 커맨드 (마크다운 파일로 정의)
/test-gen    # .opencode/commands/test-gen.md
/refactor    # .opencode/commands/refactor.md

GitHub Actions 통합

PR 코멘트에 /opencode 또는 /oc를 입력하면 CI에서 OpenCode가 자동으로 실행됩니다. 코드 리뷰, 자동 수정, PR 설명 생성 등을 CI 파이프라인에 통합할 수 있습니다.

YAML (.github/workflows/opencode.yml)
name: OpenCode CI
on:
  issue_comment:
    types: [created]

jobs:
  opencode:
    if: startsWith(github.event.comment.body, '/opencode')
    runs-on: ubuntu-latest
    steps:
      - uses: actions/checkout@v4
      - uses: sst/opencode-action@v1
        with:
          anthropic-api-key: ${{ secrets.ANTHROPIC_API_KEY }}
GitHub Actions 활용 예시
  • PR 코멘트 /oc 이 함수의 엣지 케이스 처리가 빠졌어, 추가해줘 → 자동 수정 커밋
  • /opencode 테스트 커버리지 80% 이상으로 보강해줘 → 테스트 자동 작성
  • /oc PR 설명을 한국어로 자동 작성해줘 → PR 본문 자동 업데이트

LSP 통합

OpenCode는 Language Server Protocol을 통해 진단 정보(타입 오류, 린트 경고)를 에이전트 컨텍스트에 포함합니다. v1.14.21부터 C# (Roslyn), Kotlin LSP pull diagnostics를 추가로 지원합니다.

언어 LSP 지원 비고
Python, JavaScript, TypeScript ✅ 완전 지원 pyright, eslint 등 연동
Go, Rust ✅ 완전 지원 gopls, rust-analyzer
C# (Roslyn) ✅ v1.14.21+ pull diagnostics 지원
Kotlin ✅ v1.14.21+ pull diagnostics 지원
Java, Swift, Ruby ⚡ 기본 지원 LSP 서버 별도 설치 필요

모델 선택 가이드 (2026-04)

모델 SWE-bench OpenCode에서 강점 비용 권장 용도
Claude Opus 4.7 87.6% 복잡한 에이전트 작업, Adaptive Thinking, 긴 컨텍스트 $5/$25 /MTok Plan 모드, 대규모 리팩토링
GPT-5.5 88.7% 코드 이해, 1M 컨텍스트, 에이전트 툴 사용 $5/$30 /MTok 대규모 코드베이스, 멀티파일 수정
Claude Sonnet ~72% 속도·비용 균형, 일반 코딩 중간 일상적인 코드 수정
Gemini 3.1 Pro ~75% 긴 컨텍스트, 멀티모달 중간 긴 파일, 문서 분석
DeepSeek V4 ~68% 저비용 고성능 코딩 매우 낮음 반복적인 코드 생성
Ollama (로컬) 완전 무료, 오프라인, 보안 무료 민감 코드, 비용 제로
GitHub Copilot 기존 구독 활용, 별도 키 불필요 기존 구독 팀 통일 사용
2단계 모델 전략 (비용 최적화)
  • Plan 모드: Claude Opus 4.7 또는 GPT-5.5 (최고 품질로 설계)
  • Build 모드: Claude Sonnet 또는 DeepSeek V4 (빠르고 저렴하게 실행)
  • 실험/탐색: Ollama Qwen3.6 로컬 (비용 제로)

OpenCode Zen 심화 가이드

OpenCode Zen은 OpenCode 팀이 코딩 에이전트 용도로 테스트/검증한 모델 조합을 제공하는 게이트웨이입니다. 단순 모델 목록이 아니라, 모델-제공자 조합 품질을 맞춰 제공하는 운영 레이어로 이해하면 됩니다.

중요: OpenCode Zen은 공식 문서에서 beta 상태로 안내됩니다. 정책, 모델 가용성, 요금 체계는 변동될 수 있습니다.
게이트웨이 옵션 비교
게이트웨이 요금 특징 적합한 대상
OpenCode Zen 사용량 기반 (pay-as-you-go) 팀 정책·한도 관리, BYOK 혼합 팀 단위, 유연한 사용
OpenCode Black $20–$200/월 (정액) 정액제, 예측 가능한 비용 개인·소규모팀, 월정액 선호
직접 BYOK API 사용량 직과금 게이트웨이 없음, 최대 유연성 개인 개발자, 비용 최소화

Zen을 쓰는 이유

  • 검증된 조합: 코딩 에이전트에 적합한 모델/제공자 조합을 선별
  • 운영 단순화: 여러 제공자 품질 편차를 직접 관리하지 않아도 됨
  • 워크스페이스 통제: 팀 단위 모델 접근 제어와 정책 적용 가능
  • BYOK 혼합: 필요 시 OpenAI/Anthropic 키를 직접 붙여 병행 사용 가능
OpenCode 클라이언트 TUI/CLI/IDE OpenCode Zen Gateway 모델 선택/라우팅/정책 Anthropic 계열 /zen/v1/messages OpenAI 계열 /zen/v1/responses OpenAI 호환 계열 /zen/v1/chat/completions Gemini 계열 /zen/v1/models/<id> Zen 내부 운영 레이어 1) 추천 모델 목록 제공 2) 팀 정책(허용/차단 모델) 적용 3) 과금/잔액/한도 관리 4) BYOK 사용 시 해당 요청은 제공자 직과금 5) 모델 메타데이터: /zen/v1/models

그림 2: OpenCode Zen 라우팅과 운영 레이어

연결 절차 (TUI 기준)

  1. OpenCode Zen 인증 페이지에서 로그인
  2. 결제 수단과 API 키 발급 확인
  3. TUI에서 /connect 실행 후 OpenCode Zen 선택
  4. 발급받은 API 키 입력
  5. /models로 사용 가능한 추천 모델 목록 확인
# OpenCode 실행
opencode

# TUI 내부 명령 예시
/connect
/models

모델 ID와 엔드포인트 이해

OpenCode 설정에서 Zen 모델을 지정할 때는 보통 opencode/<model-id> 형태를 사용합니다. 예: opencode/<team-default-model>

// opencode.json 예시
{
  "$schema": "https://opencode.ai/config.json",
  "model": "opencode/<team-default-model>"
}
엔드포인트 빠른 요약
  • Anthropic 계열: https://opencode.ai/zen/v1/messages
  • OpenAI Responses 계열: https://opencode.ai/zen/v1/responses
  • OpenAI 호환 Chat Completions 계열: https://opencode.ai/zen/v1/chat/completions
  • 모델 목록 메타데이터: https://opencode.ai/zen/v1/models

요금/한도 운영 포인트

Zen은 사용량 기반 과금(pay-as-you-go) 모델을 제공하며, 모델별 토큰 단가가 다릅니다. 실무에서는 "단가표"보다 "한도/자동 충전/모니터링" 운영 규칙을 먼저 정해두는 편이 안전합니다.

  • 자동 충전: 잔액 임계치 이하 시 자동 충전 동작 가능
  • 월 한도: 팀/개인 지출 상한선을 설정해 비용 폭주 방지
  • 모델 정책: 고비용 모델은 제한하고 표준 모델 중심으로 기본값 지정
  • BYOK 분리: 특정 요청은 Zen 과금이 아닌 제공자 직접 과금
요청 실행 모델/토큰 소비 사용량 집계 잔액/월 누적 갱신 정책 판단 한도/충전/차단 결정 분기 1) 잔액 충분: 요청 지속 2) 잔액 부족 + 자동 충전 사용: 충전 후 지속 3) 월 한도 초과 또는 금지 모델: 요청 차단/오류 반환

그림 3: Zen 비용 제어 흐름(운영 관점)

팀 운영(권한/모델 통제/BYOK)

팀 환경에서 Zen을 쓰는 핵심은 "권한 분리"와 "모델 접근 제어"입니다. 관리자 권한을 최소 인원으로 제한하고, 기본 모델 풀을 미리 정해 비용과 품질을 같이 관리하세요.

  • Admin: 멤버/모델/과금/API 키 운영
  • Member: 허용된 모델 범위 내 사용
  • 모델 접근 제어: 고비용 또는 정책 위반 가능 모델 비활성화
  • BYOK: OpenAI/Anthropic 개인 또는 조직 키를 붙여 과금 경로 분리

개인정보/데이터 정책 체크리스트

  • 모델 호스팅 지역(예: 미국)과 조직 정책 충돌 여부 사전 확인
  • 제로 보존 정책 적용 범위와 예외 모델 확인
  • 무료/실험 모델 사용 시 데이터 활용 고지 문구 재확인
  • 민감 코드 저장소는 별도 규칙(허용 확장자/디렉터리 제한) 운영
보안 실수 방지

API 키를 코드 저장소에 직접 커밋하지 마세요. 환경 변수 또는 로컬 비밀 저장소를 사용하고, 팀 온보딩 문서에 키 관리 절차를 명확히 적어두세요.

Zen 실무 플레이북

아래 내용은 팀에서 OpenCode Zen을 실제 운영할 때 자주 쓰는 기준안입니다. 모델 선택, 정책 통제, 비용 추정 순서로 설계하면 시행착오를 크게 줄일 수 있습니다.

모델군별 추천 시나리오

작업 유형 우선 후보 선정 이유 운영 팁
대규모 리팩토링 고성능 추론 모델 계열 긴 컨텍스트와 복합 의존성 추적이 유리함 Plan 모드로 변경 계획 먼저 검증
일상 코드 수정 중간 등급 코딩 특화 모델 품질/속도/비용 균형이 가장 좋음 기본 모델로 지정해 표준화
테스트 생성/보일러플레이트 저비용 고속 모델 반복 작업에서 비용 효율이 큼 출력 길이 제한으로 토큰 절약
긴 문서 요약/리뷰 긴 컨텍스트 지원 모델 문서 전체 맥락 유지가 중요함 요약 단계와 수정 단계 모델 분리
실험/프로토타입 무료/저비용 모델 + 필요 시 상향 초기 탐색 비용 최소화 가능 품질 임계치 미달 시 상위 모델 재실행
현실적인 기본 전략

기본은 중간 등급 코딩 모델로 두고, 실패 케이스만 고성능 모델로 재시도하는 2단계 전략이 품질과 비용 균형에서 가장 안정적입니다.

팀 정책 템플릿 (운영 초안)

아래는 팀 위키나 온보딩 문서에 바로 붙일 수 있는 정책 템플릿 예시입니다. 숫자 값은 팀 예산과 배포 빈도에 맞게 조정하세요.

# OpenCode Zen 팀 운영 정책 (예시)
# 1) 기본 모델
- 기본 모델: opencode/<중간-등급-코딩-모델>
- 고성능 모델: 승인된 작업에서만 사용

# 2) 월 한도
- 개인 월 한도: 팀 정책에 맞는 값으로 설정
- 팀 월 한도: 예산 승인 범위에 맞게 설정
- 80% 도달 시 운영 채널 자동 알림

# 3) 권한
- Admin: 모델 허용/차단, 한도, 과금 설정
- Member: 허용된 모델만 사용

# 4) 데이터 처리
- 민감 저장소는 승인된 모델만 사용
- 무료/실험 모델 사용 전 데이터 정책 재확인

# 5) 운영 규칙
- 대규모 변경: Plan 모드로 계획 검토 후 Build 전환
- 실패 시 재시도 순서: 기본 모델 → 고성능 모델
- API 키는 환경 변수 또는 비밀 저장소만 사용

설정 템플릿 (opencode.json 예시)

{
  "$schema": "https://opencode.ai/config.json",
  "model": "opencode/<기본-모델-id>",
  "small_model": "opencode/<저비용-모델-id>",
  "mode": "build"
}
기본 요청 중간 등급 모델 품질 판단 게이트 통과/재시도 결정 재시도 경로 고성능 모델 상향 2단계 모델 운영 패턴 1차: 비용 효율 모델로 대부분 처리 2차: 실패/고난도 케이스만 상위 모델 투입

그림 4: 비용-품질 균형을 위한 2단계 모델 전략

비용 시뮬레이션 예시

실제 단가는 수시로 바뀌므로, 아래는 산식 중심 예시입니다. 핵심은 팀별 요청량을 기준으로 월 예산 범위를 빠르게 추정하는 것입니다.

# 월비용(대략) = (일평균 입력토큰/1,000,000 × 입력단가 + 일평균 출력토큰/1,000,000 × 출력단가) × 근무일수
시나리오 일평균 입력 토큰 일평균 출력 토큰 근무일 월비용 추정 방식
개인 개발자(보수적) 1.2M 0.6M 20 (1.2 × 입력단가 + 0.6 × 출력단가) × 20
개인 개발자(집중 작업) 2.0M 1.2M 20 (2.0 × 입력단가 + 1.2 × 출력단가) × 20
5인 팀(표준) 8.0M 4.0M 20 (8.0 × 입력단가 + 4.0 × 출력단가) × 20
5인 팀(릴리즈 직전) 12.0M 7.0M 20 (12.0 × 입력단가 + 7.0 × 출력단가) × 20
비용 튀는 구간
  • 긴 파일 다수 포함 + 긴 출력 강제
  • 동일 요청 반복 재시도
  • 고단가 모델을 기본값으로 상시 사용
  • 팀 정책 없이 자유 선택만 허용

문제 해결 빠른 점검표

증상 우선 점검 해결 방향
모델 목록이 안 보임 /connect 완료 여부, 키 유효성 /models 재조회, 키 재발급 후 재연결
IDE 연동 실패 통합 터미널에서 실행했는지 code/cursor/windsurf CLI 설정 확인
요청이 갑자기 차단됨 월 한도, 모델 허용 정책 관리자에게 모델 정책/한도 확인 요청
예상보다 비용 증가 기본 모델 단가, 긴 컨텍스트 사용량 기본 모델 다운그레이드, 컨텍스트 길이/호출 횟수 조정

도구 비교

특징 OpenCode Claude Code Aider Cursor
GitHub Stars 140,000+ 71,000+ 43,000+ IDE (비공개)
LLM 지원 75개 이상 Claude 전용 다중 지원 다중 지원
인터페이스 Rich TUI (탭) CLI 에이전트 CLI 대화형 GUI IDE
병렬 세션 ✅ 탭 기반 제한적
MCP 지원 ✅ 로컬+원격 제한적 제한적
커스텀 에이전트 ✅ 마크다운 ✅ 슬래시 커맨드 제한적
GitHub Actions ✅ /opencode /oc 제한적
LSP 통합 ✅ 풀 지원 제한적
Git 통합 기본 지원 Git 지원 핵심 기능 (자동 커밋) 기본 Git 지원
비용 BYOK / Zen / Black 구독 또는 API BYOK / Ollama $20+/월
오픈소스 MIT 비공개 MIT 비공개

공식 레퍼런스

핵심 정리

  • 현재 활성 저장소는 sst/opencode이며, v1.14.24 (2026-04-24), GitHub Stars 140K+의 가장 빠르게 성장하는 터미널 AI 코딩 에이전트입니다.
  • 병렬 세션(탭)으로 여러 에이전트를 동시에 운영할 수 있는 것이 Claude Code, Aider 대비 핵심 차별점입니다.
  • MCP 서버 통합커스텀 에이전트(마크다운)로 팀 특화 워크플로우를 구축할 수 있습니다.
  • GitHub Actions 통합(/opencode, /oc)으로 PR 기반 AI 자동화 파이프라인을 CI에 통합합니다.
  • 모델은 75개 이상 지원하며, 최고 성능은 Claude Opus 4.7 (SWE-bench 87.6%) 또는 GPT-5.5 (88.7%)입니다.
  • 게이트웨이는 Zen(사용량 기반) · Black($20–200/월 정액) · 직접 BYOK 세 가지를 목적에 맞게 선택하세요.
  • 실무에서는 설치 자체보다 모델 정책, 비용 통제, 팀 권한 설계가 안정성에 더 큰 영향을 줍니다.