컨텍스트 윈도우
LLM이 한 번의 요청에서 처리할 수 있는 최대 텍스트 길이(토큰 수)로, 바이브 코딩에서 AI가 동시에 '볼 수 있는' 코드의 양을 결정하는 핵심 스펙이다. 비유하면 AI의 '작업 메모리(working memory)' 또는 '책상 위에 펼쳐 놓을 수 있는 서류의 양'이다. 컨텍스트 윈도우가 클수록 AI가 더 많은 코드를 동시에 파악할 수 있으므로, 대규모 코드베이스에서의 작업 정확도가 높아진다. 대표적인 모델별 컨텍스트 윈도우: Claude — 100만 토큰(약 75,000줄 코드), GPT-4 — 128K 토큰(약 9,600줄), Gemini 1.5 Pro — 200만 토큰(약 150,000줄). 다만, 컨텍스트 윈도우가 크다고 무조건 좋은 것은 아니다. 너무 많은 정보를 넣으면 '컨텍스트 부패(Context Rot)' 현상이 발생하여 AI가 핵심 정보를 놓칠 수 있으며, 토큰 소비량이 증가하여 비용도 높아진다. 따라서 컨텍스트 엔지니어링을 통해 '필요한 정보만 적절한 양'으로 제공하는 것이 중요하다.
예시
Claude의 100만 토큰 컨텍스트 ≈ 약 75,000줄의 코드를 한 번에 이해 가능. GPT-4의 128K 토큰 ≈ 약 9,600줄.
참고
컨텍스트 윈도우가 클수록 대규모 코드베이스를 더 잘 파악.
카테고리
AI 모델·프로바이더
난이도
basic
태그
컨텍스트윈도우 · 토큰한도
함께 읽기
연관 용어
AI 모델·프로바이더
대규모 언어 모델
방대한 텍스트 데이터(인터넷의 글, 코드, 책 등)로 훈련되어 인간 언어를 이해·생성·조작할 수 있는 대규모 신경망(neural network)이다. 바이브 코딩의 핵심 엔진으로, 자연어 지시를 이해하고 이를 프로그래밍 코드로 변환하는 능력이 바이브 코딩을 가능하게 하는 근본 기술이다. GPT-4(OpenAI), Claude Opus 4.6(Anthropic), Gemini(Google), DeepSeek(DeepSeek AI) 등이 대표적이며, 각 모델은 코드 생성 능력, 추론 깊이, 컨텍스트 윈도우 크기, 응답 속도, 비용에서 서로 다른 특성을 보인다. LLM을 이해하는 핵심 개념으로는 토큰(텍스트 처리 기본 단위), 컨텍스트 윈도우(한 번에 처리할 수 있는 텍스트 길이), 파라미터 수(모델의 크기/복잡도), 파인튜닝(특정 작업에 맞게 추가 훈련) 등이 있다. AI 코딩 능력을 측정하는 주요 벤치마크로는 SWE-bench(실제 GitHub 이슈 해결), Terminal Bench(터미널 에이전트 능력), HumanEval(함수 생성 능력) 등이 있다. LLM은 확률적으로 '가장 그럴듯한 다음 토큰'을 예측하는 방식으로 동작하며, 이 때문에 환각(Hallucination)이 발생할 수 있다.
AI 모델·프로바이더
클로드
Anthropic이 개발한 AI 모델 시리즈로, 안전성(safety), 정직성(honesty), 유용성(helpfulness)을 핵심 원칙으로 설계되었다. 바이브 코딩에서 가장 널리 사용되는 모델 중 하나이며, 깊은 코드 이해, 상세한 설명 생성, 100만 토큰의 업계 최대급 컨텍스트 윈도우가 주요 강점이다. 현재 Claude 4 패밀리로 구성되어 있으며, Claude Opus 4.6(가장 강력한 최상위 모델), Claude Opus 4.5, Claude Opus 4.1, Claude Opus 4, Claude Sonnet 4의 다섯 가지 모델이 있다. Opus 계열은 복잡한 추론과 대규모 코드 분석에, Sonnet 계열은 빠른 응답과 비용 효율에 최적화되어 있다. Claude Code(CLI 도구)를 통해 터미널에서 직접 사용하거나, Cursor·Windsurf 등 제3자 IDE에서 모델로 선택할 수 있다. API 모델 문자열은 'claude-opus-4-6'이며, 웹·모바일·데스크톱 채팅 인터페이스를 통해서도 접근 가능하다. Constitutional AI라는 독자적인 안전 기술로 유해한 출력을 최소화하면서도 유용한 코드 생성을 유지하는 것이 특징이다.
AI 모델·프로바이더
GPT
OpenAI가 개발한 생성형 사전훈련 트랜스포머(Generative Pre-trained Transformer) 모델 시리즈로, 현대 AI 혁명의 핵심 기술이다. 'Transformer'는 2017년 Google이 발표한 신경망 아키텍처이며, GPT는 이를 '생성(Generative)' 목적으로 '사전 훈련(Pre-trained)'시킨 모델이다. ChatGPT, Codex CLI, GitHub Copilot 등 수많은 AI 제품의 기반이 되며, GPT-4, GPT-4o(최적화 버전), o1(추론 특화), o3(고급 추론) 등 다양한 변형이 존재한다. GPT-4는 코드 생성에서 높은 범용성을 보이며, o1/o3 시리즈는 복잡한 논리적 추론이 필요한 알고리즘 문제에 강점이 있다. Cursor, GitHub Copilot, Windsurf 등 대부분의 AI 코딩 도구에서 기본 모델로 제공되며, OpenAI API를 통해 직접 호출할 수도 있다. 바이브 코딩 생태계에서 Claude와 함께 가장 빈번하게 사용되는 모델이며, 특히 GPT-4o는 빠른 응답 속도와 적절한 코드 품질의 균형으로 일상적 코딩 작업에 널리 활용된다.