딥시크
중국 AI 스타트업 DeepSeek AI가 개발한 오픈소스 대규모 언어 모델 시리즈로, 서구권 모델(GPT, Claude)에 비해 훨씬 저렴한 비용으로 경쟁력 있는 코딩 성능을 제공하여 주목받았다. DeepSeek R1은 추론(reasoning) 특화 모델로, 복잡한 알고리즘 설계나 논리적 문제 해결에서 강점을 보이며, 'chain-of-thought' 추론 과정을 자세히 보여주어 문제 풀이 과정을 이해하기 쉽다. 완전한 오픈소스(모델 가중치 공개)로 배포되어, 누구나 다운로드하여 로컬에서 실행하거나 자체 서버에 배포할 수 있다는 것이 핵심 차별점이다. 이는 데이터가 외부 서버로 전송되는 것을 원하지 않는 기업이나 개인에게 매력적이다. Trae(ByteDance의 AI IDE) 등 일부 바이브 코딩 도구에서 지원되며, 오픈소스 특성상 커뮤니티에 의한 다양한 파인튜닝 버전도 존재한다. 다만, 중국 기업 제품이라는 점에서 일부 지역에서는 데이터 주권 관련 우려가 제기되기도 한다.
예시
Trae에서 DeepSeek R1 모델을 선택하고 복잡한 알고리즘 문제 풀이를 요청.
참고
오픈소스·저비용으로 주목. DeepSeek R1은 추론(reasoning) 특화.
공식·관련 링크
www.deepseek.com카테고리
AI 모델·프로바이더
난이도
intermediate
태그
딥시크 · 오픈소스
함께 읽기
연관 용어
CLI·터미널 도구
제미나이 CLI
Google이 오픈소스로 공개한 AI 에이전트 CLI 도구로, 터미널에서 코드 이해, 파일 조작, 명령어 실행, 대규모 코드베이스 편집을 지원한다. Google의 Gemini 모델을 기반으로 하며, Gemini의 멀티모달 능력을 활용하여 텍스트뿐 아니라 이미지와 비디오 생성까지 가능하다는 것이 독특한 차별점이다. 예를 들어, '이 UI의 스크린샷을 보고 React 컴포넌트를 만들어줘'와 같은 시각적 입력 기반 코딩이 가능하다. 오픈소스 프로젝트로 커뮤니티 기여가 가능하며, Google Cloud 생태계(Cloud Functions, Firebase, Vertex AI 등)와 긴밀하게 통합된다. Gemini Code Assist(IDE 기반 도구)와도 연동되어, CLI에서 시작한 작업을 IDE에서 이어서 할 수 있다. Claude Code, Codex CLI와 함께 3대 CLI 코딩 에이전트를 형성하며, Google 계정만 있으면 무료로 사용할 수 있어 진입 장벽이 낮다.
CLI·터미널 도구
에이더
터미널에서 동작하는 오픈소스 AI 페어 프로그래밍 도구로, 특정 AI 제공사에 종속되지 않는 '모델 독립성(model agnosticism)'이 가장 큰 특징이다. GPT-4, Claude, Gemini, DeepSeek, Llama 등 사실상 모든 주요 LLM을 지원하며, --model 플래그로 쉽게 전환할 수 있어 모델 비교나 비용 최적화에 유리하다. Git과 극도로 긴밀하게 통합되어 있어, 모든 코드 변경이 Git diff 단위로 추적되고, 각 변경마다 의미 있는 커밋 메시지가 자동 생성된다. 즉, AI가 수정한 모든 내용이 Git 히스토리에 깔끔하게 기록되므로, 문제 발생 시 특정 변경을 쉽게 되돌릴 수 있다. 'architect mode'에서는 상위 모델이 계획을 세우고 하위 모델이 실행하는 멀티모델 워크플로도 가능하다. SWE-bench에서 상위권 성적을 유지하고 있으며, 완전한 오픈소스(Apache 2.0)로 누구나 코드를 검토·수정·기여할 수 있다. 상용 도구(Claude Code, Codex CLI)의 오픈소스 대안으로 꾸준한 인기를 얻고 있다.
AI 모델·프로바이더
대규모 언어 모델
방대한 텍스트 데이터(인터넷의 글, 코드, 책 등)로 훈련되어 인간 언어를 이해·생성·조작할 수 있는 대규모 신경망(neural network)이다. 바이브 코딩의 핵심 엔진으로, 자연어 지시를 이해하고 이를 프로그래밍 코드로 변환하는 능력이 바이브 코딩을 가능하게 하는 근본 기술이다. GPT-4(OpenAI), Claude Opus 4.6(Anthropic), Gemini(Google), DeepSeek(DeepSeek AI) 등이 대표적이며, 각 모델은 코드 생성 능력, 추론 깊이, 컨텍스트 윈도우 크기, 응답 속도, 비용에서 서로 다른 특성을 보인다. LLM을 이해하는 핵심 개념으로는 토큰(텍스트 처리 기본 단위), 컨텍스트 윈도우(한 번에 처리할 수 있는 텍스트 길이), 파라미터 수(모델의 크기/복잡도), 파인튜닝(특정 작업에 맞게 추가 훈련) 등이 있다. AI 코딩 능력을 측정하는 주요 벤치마크로는 SWE-bench(실제 GitHub 이슈 해결), Terminal Bench(터미널 에이전트 능력), HumanEval(함수 생성 능력) 등이 있다. LLM은 확률적으로 '가장 그럴듯한 다음 토큰'을 예측하는 방식으로 동작하며, 이 때문에 환각(Hallucination)이 발생할 수 있다.