OpenCode 가이드

터미널 중심 AI 코딩 에이전트 OpenCode의 현재 상태, 설치, IDE 연동, OpenCode Zen 실전 운영 가이드

업데이트 기준: 이 문서는 2026-02-27 기준으로 정리했습니다. 모델 목록, 요금, 정책은 바뀔 수 있으니 공식 문서를 함께 확인하세요.

현재 상태와 저장소 구분

OpenCode 관련 정보는 과거 저장소와 현재 활성 저장소가 혼재되어 있어 혼동이 자주 생깁니다. 아래처럼 두 계열을 분리해서 이해하면 오해를 줄일 수 있습니다.

구분 저장소 상태 설명
현재 활성 계열 anomalyco/opencode ✅ 활성 개발 현재 opencode.ai 문서와 연동되는 메인 프로젝트
과거 아카이브 계열 opencode-ai/opencode 🔴 2025-09-18 아카이브 과거 레퍼런스 보존용, 신규 기능 개발 대상 아님
핵심 판단 기준

최신 설치/설정/기능 확인은 opencode.ai/docsanomalyco/opencode를 우선 기준으로 보세요.

OpenCode 개요

OpenCode는 터미널 중심 워크플로우를 기반으로 코드 생성, 수정, 파일 탐색, 명령 실행을 연결하는 오픈소스 AI 코딩 에이전트입니다. 단독 TUI/CLI로 사용할 수 있고, VS Code/Cursor/Windsurf 같은 편집기에서는 확장 연동으로 함께 사용할 수 있습니다.

  • 핵심 인터페이스: TUI/CLI 기반 상호작용
  • IDE 연동: 통합 터미널에서 실행 시 확장 자동 설치 경로 제공
  • 모델 연결: 다양한 제공자 또는 OpenCode Zen 사용 가능
  • 워크플로우: Plan 모드와 Build 모드를 분리해 안전하게 작업
개발자 터미널/IDE OpenCode TUI/CLI 에이전트 오케스트레이션 모델 제공자 직접 연결 또는 Zen 실행 결과 코드 변경안, 명령 결과, 설명, 후속 제안 사용자 승인 후 적용

그림 1: OpenCode 기본 처리 구조

설치와 빠른 시작

아래 명령은 공식 문서 기준 설치 방법입니다. 운영체제와 패키지 관리자 환경에 맞춰 하나만 선택해도 됩니다.

# Node 패키지 매니저 기반
npm install -g opencode-ai
# 또는
bun install -g opencode-ai
# 또는
pnpm install -g opencode-ai

# macOS Homebrew (탭)
brew install anomalyco/tap/opencode

# 실행
opencode

IDE 연동 핵심

  • VS Code, Cursor, Windsurf 통합 터미널에서 opencode 실행
  • 확장 연동이 자동으로 진행되지 않으면 IDE CLI 명령 존재 여부 점검
  • 예: VS Code는 code, Cursor는 cursor, Windsurf는 windsurf
확장 관련 주의

현재 OpenCode는 "터미널 중심" 사용이 기본이며, IDE 확장은 이를 보조합니다. 따라서 설치/문제 해결의 시작점은 통합 터미널에서 opencode를 정상 실행하는 것입니다.

OpenCode Zen 심화 가이드

OpenCode Zen은 OpenCode 팀이 코딩 에이전트 용도로 테스트/검증한 모델 조합을 제공하는 게이트웨이입니다. 단순 모델 목록이 아니라, 모델-제공자 조합 품질을 맞춰 제공하는 운영 레이어로 이해하면 됩니다.

중요: OpenCode Zen은 공식 문서에서 beta 상태로 안내됩니다. 정책, 모델 가용성, 요금 체계는 변동될 수 있습니다.

Zen을 쓰는 이유

  • 검증된 조합: 코딩 에이전트에 적합한 모델/제공자 조합을 선별
  • 운영 단순화: 여러 제공자 품질 편차를 직접 관리하지 않아도 됨
  • 워크스페이스 통제: 팀 단위 모델 접근 제어와 정책 적용 가능
  • BYOK 혼합: 필요 시 OpenAI/Anthropic 키를 직접 붙여 병행 사용 가능
OpenCode 클라이언트 TUI/CLI/IDE OpenCode Zen Gateway 모델 선택/라우팅/정책 Anthropic 계열 /zen/v1/messages OpenAI 계열 /zen/v1/responses OpenAI 호환 계열 /zen/v1/chat/completions Gemini 계열 /zen/v1/models/<id> Zen 내부 운영 레이어 1) 추천 모델 목록 제공 2) 팀 정책(허용/차단 모델) 적용 3) 과금/잔액/한도 관리 4) BYOK 사용 시 해당 요청은 제공자 직과금 5) 모델 메타데이터: /zen/v1/models

그림 2: OpenCode Zen 라우팅과 운영 레이어

연결 절차 (TUI 기준)

  1. OpenCode Zen 인증 페이지에서 로그인
  2. 결제 수단과 API 키 발급 확인
  3. TUI에서 /connect 실행 후 OpenCode Zen 선택
  4. 발급받은 API 키 입력
  5. /models로 사용 가능한 추천 모델 목록 확인
# OpenCode 실행
opencode

# TUI 내부 명령 예시
/connect
/models

모델 ID와 엔드포인트 이해

OpenCode 설정에서 Zen 모델을 지정할 때는 보통 opencode/<model-id> 형태를 사용합니다. 예: opencode/gpt-5.2-codex

// opencode.json 예시
{
  "$schema": "https://opencode.ai/config.json",
  "model": "opencode/gpt-5.2-codex"
}
엔드포인트 빠른 요약
  • Anthropic 계열: https://opencode.ai/zen/v1/messages
  • OpenAI Responses 계열: https://opencode.ai/zen/v1/responses
  • OpenAI 호환 Chat Completions 계열: https://opencode.ai/zen/v1/chat/completions
  • 모델 목록 메타데이터: https://opencode.ai/zen/v1/models

요금/한도 운영 포인트

Zen은 사용량 기반 과금(pay-as-you-go) 모델을 제공하며, 모델별 토큰 단가가 다릅니다. 실무에서는 "단가표"보다 "한도/자동 충전/모니터링" 운영 규칙을 먼저 정해두는 편이 안전합니다.

  • 자동 충전: 잔액 임계치 이하 시 자동 충전 동작 가능
  • 월 한도: 팀/개인 지출 상한선을 설정해 비용 폭주 방지
  • 모델 정책: 고비용 모델은 제한하고 표준 모델 중심으로 기본값 지정
  • BYOK 분리: 특정 요청은 Zen 과금이 아닌 제공자 직접 과금
요청 실행 모델/토큰 소비 사용량 집계 잔액/월 누적 갱신 정책 판단 한도/충전/차단 결정 분기 1) 잔액 충분: 요청 지속 2) 잔액 부족 + 자동 충전 사용: 충전 후 지속 3) 월 한도 초과 또는 금지 모델: 요청 차단/오류 반환

그림 3: Zen 비용 제어 흐름(운영 관점)

팀 운영(권한/모델 통제/BYOK)

팀 환경에서 Zen을 쓰는 핵심은 "권한 분리"와 "모델 접근 제어"입니다. 관리자 권한을 최소 인원으로 제한하고, 기본 모델 풀을 미리 정해 비용과 품질을 같이 관리하세요.

  • Admin: 멤버/모델/과금/API 키 운영
  • Member: 허용된 모델 범위 내 사용
  • 모델 접근 제어: 고비용 또는 정책 위반 가능 모델 비활성화
  • BYOK: OpenAI/Anthropic 개인 또는 조직 키를 붙여 과금 경로 분리

개인정보/데이터 정책 체크리스트

  • 모델 호스팅 지역(예: 미국)과 조직 정책 충돌 여부 사전 확인
  • 제로 보존 정책 적용 범위와 예외 모델 확인
  • 무료/실험 모델 사용 시 데이터 활용 고지 문구 재확인
  • 민감 코드 저장소는 별도 규칙(허용 확장자/디렉터리 제한) 운영
보안 실수 방지

API 키를 코드 저장소에 직접 커밋하지 마세요. 환경 변수 또는 로컬 비밀 저장소를 사용하고, 팀 온보딩 문서에 키 관리 절차를 명확히 적어두세요.

Zen 실무 플레이북

아래 내용은 팀에서 OpenCode Zen을 실제 운영할 때 자주 쓰는 기준안입니다. 모델 선택, 정책 통제, 비용 추정 순서로 설계하면 시행착오를 크게 줄일 수 있습니다.

모델군별 추천 시나리오

작업 유형 우선 후보 선정 이유 운영 팁
대규모 리팩토링 고성능 추론 모델 계열 긴 컨텍스트와 복합 의존성 추적이 유리함 Plan 모드로 변경 계획 먼저 검증
일상 코드 수정 중간 등급 코딩 특화 모델 품질/속도/비용 균형이 가장 좋음 기본 모델로 지정해 표준화
테스트 생성/보일러플레이트 저비용 고속 모델 반복 작업에서 비용 효율이 큼 출력 길이 제한으로 토큰 절약
긴 문서 요약/리뷰 긴 컨텍스트 지원 모델 문서 전체 맥락 유지가 중요함 요약 단계와 수정 단계 모델 분리
실험/프로토타입 무료/저비용 모델 + 필요 시 상향 초기 탐색 비용 최소화 가능 품질 임계치 미달 시 상위 모델 재실행
현실적인 기본 전략

기본은 중간 등급 코딩 모델로 두고, 실패 케이스만 고성능 모델로 재시도하는 2단계 전략이 품질과 비용 균형에서 가장 안정적입니다.

팀 정책 템플릿 (운영 초안)

아래는 팀 위키나 온보딩 문서에 바로 붙일 수 있는 정책 템플릿 예시입니다. 숫자 값은 팀 예산과 배포 빈도에 맞게 조정하세요.

# OpenCode Zen 팀 운영 정책 (예시)
# 1) 기본 모델
- 기본 모델: opencode/<중간-등급-코딩-모델>
- 고성능 모델: 승인된 작업에서만 사용

# 2) 월 한도
- 개인 월 한도: 40 USD
- 팀 월 한도: 500 USD
- 80% 도달 시 운영 채널 자동 알림

# 3) 권한
- Admin: 모델 허용/차단, 한도, 과금 설정
- Member: 허용된 모델만 사용

# 4) 데이터 처리
- 민감 저장소는 승인된 모델만 사용
- 무료/실험 모델 사용 전 데이터 정책 재확인

# 5) 운영 규칙
- 대규모 변경: Plan 모드로 계획 검토 후 Build 전환
- 실패 시 재시도 순서: 기본 모델 → 고성능 모델
- API 키는 환경 변수 또는 비밀 저장소만 사용

설정 템플릿 (opencode.json 예시)

{
  "$schema": "https://opencode.ai/config.json",
  "model": "opencode/<기본-모델-id>",
  "small_model": "opencode/<저비용-모델-id>",
  "mode": "build"
}
기본 요청 중간 등급 모델 품질 판단 게이트 통과/재시도 결정 재시도 경로 고성능 모델 상향 2단계 모델 운영 패턴 1차: 비용 효율 모델로 대부분 처리 2차: 실패/고난도 케이스만 상위 모델 투입

그림 4: 비용-품질 균형을 위한 2단계 모델 전략

비용 시뮬레이션 예시

실제 단가는 수시로 바뀌므로, 아래는 산식 중심 예시입니다. 핵심은 팀별 요청량을 기준으로 월 예산 범위를 빠르게 추정하는 것입니다.

# 월비용(대략) = (일평균 입력토큰/1,000,000 × 입력단가 + 일평균 출력토큰/1,000,000 × 출력단가) × 근무일수
시나리오 일평균 입력 토큰 일평균 출력 토큰 근무일 월비용 추정 방식
개인 개발자(보수적) 1.2M 0.6M 20 (1.2 × 입력단가 + 0.6 × 출력단가) × 20
개인 개발자(집중 작업) 2.0M 1.2M 20 (2.0 × 입력단가 + 1.2 × 출력단가) × 20
5인 팀(표준) 8.0M 4.0M 20 (8.0 × 입력단가 + 4.0 × 출력단가) × 20
5인 팀(릴리즈 직전) 12.0M 7.0M 20 (12.0 × 입력단가 + 7.0 × 출력단가) × 20
비용 튀는 구간
  • 긴 파일 다수 포함 + 긴 출력 강제
  • 동일 요청 반복 재시도
  • 고단가 모델을 기본값으로 상시 사용
  • 팀 정책 없이 자유 선택만 허용

문제 해결 빠른 점검표

증상 우선 점검 해결 방향
모델 목록이 안 보임 /connect 완료 여부, 키 유효성 /models 재조회, 키 재발급 후 재연결
IDE 연동 실패 통합 터미널에서 실행했는지 code/cursor/windsurf CLI 설정 확인
요청이 갑자기 차단됨 월 한도, 모델 허용 정책 관리자에게 모델 정책/한도 확인 요청
예상보다 비용 증가 기본 모델 단가, 긴 컨텍스트 사용량 기본 모델 다운그레이드, 컨텍스트 길이/호출 횟수 조정

공식 레퍼런스

핵심 정리

  • 현재 기준 OpenCode 정보는 "활성 저장소"와 "과거 아카이브 저장소"를 분리해서 봐야 정확합니다.
  • OpenCode Zen은 모델 게이트웨이이며, 단순 모델 카탈로그가 아니라 운영 정책 계층까지 포함합니다.
  • 실무에서는 설치 자체보다 모델 정책, 비용 통제, 팀 권한 설계가 안정성에 더 큰 영향을 줍니다.