DeepSeek은 2026년 4월 23일 V4를 출시했습니다. 이번 릴리스는 단순한 버전 업그레이드가 아닌, 1.6조 매개변수, MIT 라이선스, 1백만 토큰 컨텍스트 창을 갖춘 DeepSeek-V4-Pro를 비롯한 4가지 체크포인트의 동시 공개입니다. V4-Flash는 동일한 컨텍스트 및 공개 가중치로 2,840억 매개변수를 제공합니다. 벤치마크 결과 Pro 모델은 LiveCodeBench 및 Codeforces에서 Claude Opus 4.6을 앞서고, MMLU-Pro에서는 GPT-5.4 xHigh와 대등합니다.
Claude, GPT-5.5, Qwen을 DeepSeek V4로 교체할지 고민한다면 본 글에서는 DeepSeek V4의 특징, V3.2와의 차이, 주요 벤치마크, 그리고 실전 적용 방법까지 빠르게 파악할 수 있도록 안내합니다.
관련 개발자 가이드: DeepSeek V4 API 가이드, 무료 액세스 가이드, DeepSeek V4 사용 가이드 참고. OpenAI와 유사한 API 포맷이므로, Apidog에서 사전 컬렉션 구성이 가능합니다.
요약
- DeepSeek V4는 2026년 4월 23일 MIT 라이선스로 공개된 Mixture-of-Experts(MoE) 계열 모델입니다.
- 출시 시점 기준 4가지 체크포인트: V4-Pro, V4-Pro-Base, V4-Flash, V4-Flash-Base.
- V4-Pro: 1.6조 매개변수 중 490억 활성화. V4-Flash: 2,840억 중 130억 활성화.
- 두 모델 모두 1백만 토큰 컨텍스트 창 및 세 가지 추론 모드(Non-Think, Think High, Think Max) 제공.
- 주요 벤치마크: LiveCodeBench 93.5, Codeforces 3206, MMLU-Pro 87.5 (Pro 기준).
- API는
api.deepseek.com에서deepseek-v4-pro,deepseek-v4-flash모델 ID로 활성. 가중치는 Hugging Face/ModelScope에서 다운로드 가능.
DeepSeek V4는 실제로 무엇인가요?
DeepSeek V4는 V3 및 V3.2의 후속 모델로, MoE 아키텍처를 유지하되 구조와 효율성을 대폭 개선했습니다. V4-Pro의 경우 1.6조 매개변수 중 매 토큰 490억만 활성화되므로, 실제 추론 비용은 500억 매개변수 밀집 모델과 유사합니다. 자세한 기술 정보는 DeepSeek V4 모델 카드에서 확인할 수 있습니다.
네 가지 체크포인트:
- DeepSeek-V4-Pro: 플래그십 모델, 1.6조(490억 활성), 1M 컨텍스트, API 호출용.
- DeepSeek-V4-Pro-Base: 사전학습-only, 미세조정/연구 용도.
- DeepSeek-V4-Flash: 경량화, 2,840억(130억 활성), 1M 컨텍스트, 저지연/로컬 배포 최적.
- DeepSeek-V4-Flash-Base: Flash 기본 체크포인트.
모든 모델은 MIT 라이선스. GPT-5.5, Claude Opus 4.6과 달리 라이선스 비용 없이 직접 다운로드, 미러링, 미세조정, 자체 배포 가능.
V3.2에서 무엇이 바뀌었나요?
V4는 어텐션 스택과 훈련 파이프라인을 근본적으로 개선해 긴 컨텍스트와 효율성을 대폭 강화했습니다.
| 기능 | V3.2 | V4-Pro |
|---|---|---|
| 총 매개변수 | 6,850억 개 | 1.6조 개 |
| 활성 매개변수 | 370억 개 | 490억 개 |
| 컨텍스트 창 | 128K | 1M |
| 추론 FLOPs (1M 컨텍스트) | 기준 | V3.2의 27% |
| KV 캐시 (1M 컨텍스트) | 기준 | V3.2의 10% |
| 정밀도 | FP8 | FP4 + FP8 혼합 |
| 라이선스 | DeepSeek 라이선스 | MIT |
| 추론 모드 | 단일 | 세 가지 |
핵심 개선점:
- 하이브리드 어텐션(압축 희소 + 고압축): 1M 컨텍스트 기준 KV-캐시 10%, FLOPs 27%만 사용.
- 매니폴드 제약 하이퍼-연결: 그래디언트 안정화, 더 깊은 네트워크 가능.
- 뮤온(Muon) 옵티마이저: 빠른 수렴, MoE 특화.
- 훈련 데이터 32조 토큰, 도메인별 전문가와 정책 기반 증류 2단계 파이프라인.
중요한 벤치마크
DeepSeek 공개 수치 기준, V4-Pro는 코드와 지식 분야에서 강력합니다. 긴 컨텍스트 검색은 경쟁 모델 대비 약간 열세.
V4-Flash: MMLU-Pro 86.2, GPQA 88.1, LiveCodeBench 91.6, Codeforces 3052, SWE Verified 79.0. 130억 활성 모델 중 선두급. 자세한 표는 V4-Flash 카드 참고.
요약 평가: V4-Pro는 코드 및 추론 중심 작업에 매우 적합. 100만 토큰 내 대규모 검색은 Claude가 여전히 우위.
세 가지 추론 모드
모든 V4 체크포인트는 세 가지 추론 모드를 지원하며, 용도에 맞는 모드 선택이 비용 효율성에 중요합니다.
- Non-Think: 단일 패스, 빠른 응답, 분류/라우팅/짧은 요약 등 지연 우선.
- Think High: 복잡한 작업 기본값, 추가 추론 토큰/검증/도구 플래닝.
- Think Max: 최상위 정확도, 긴 추론 경로, 384K 이상 컨텍스트 권장, 토큰 비용 증가.
API에서 thinking_mode 파라미터로 지정. 샘플링은 temperature=1.0, top_p=1.0 권장.
간단히 설명하는 아키텍처
V4의 효율성과 확장성은 세 가지 주요 선택에서 나옵니다.
- 하이브리드 어텐션: 압축 희소 어텐션 + 고압축 어텐션 병용, 1M 토큰에서 FLOPs/KV-캐시 대폭 절감.
- 매니폴드 제약 하이퍼-연결: 안정적인 활성화, 더 깊은 네트워크 가능.
- 뮤온 옵티마이저: AdamW 대체, MoE에서 더 빠른 수렴과 안정성.
이 조합이 1조 매개변수 모델에서 실제 훈련 효율을 달성합니다.
오늘날의 가용성
DeepSeek은 4가지 체크포인트와 API를 동시 공개했습니다. 2026년 4월 24일 기준:
| 접근 방식 | 접근 |
|---|---|
| chat.deepseek.com | 무료 웹 채팅, V4-Pro 기본, 로그인 필요 |
| DeepSeek API |
api.deepseek.com에서 라이브; 모델 ID deepseek-v4-pro, deepseek-v4-flash
|
| Hugging Face 가중치 | V4-Pro, V4-Flash, 둘 다 MIT 라이선스 |
| ModelScope | 중국 사용자를 위한 미러 가중치 |
| OpenRouter 및 애그리게이터 | 수일 내 예정, DeepSeek 표준 패턴 |
deepseek-chat / deepseek-reasoner
|
2026년 7월 24일 사용 중단 예정 |
deepseek-chat을 사용 중인 경우, deepseek-v4-pro 또는 deepseek-v4-flash로 3개월 내 마이그레이션 필요.
GPT-5.5 및 Claude와 비교
실전 관점 주요 비교:
- 비용: V4-Pro/Flash는 공개 가중치. 자체 호스팅 시 단위 경제성 우위.
- 코딩: LiveCodeBench, Codeforces에서 GPT-5.5/Claude Opus 대비 우위.
- 지식: Gemini 3.1 Pro(MMLU 91.0)에 약간 뒤처지나, SimpleQA 등 일부 영역은 V4가 앞섬.
- 긴 컨텍스트 검색: Claude Opus가 MRCR 1M 기준 약 9점 우위.
- 라이선스: MIT로, 제품 내 자유 배포 가능.
무엇을 구축할 수 있나요?
V4의 강점에 최적화된 작업 부하:
- 에이전트 코딩 루프: SWE Verified 79.0, Codeforces 3206. 코드 리팩토링, 자율 테스트 등. Apidog 등 API 클라이언트로 프롬프트 튜닝 및 실시간 응답 확인.
- 긴 문서 추론: 1M 토큰 컨텍스트, Think High 모드 활용. 대형 모노레포, 계약, 논문 등 처리.
- 자체 호스팅 AI 제품: 온프레미스 요구 시 V4-Flash가 공개 가중치 중 실전 경쟁력 최초 달성.
- 연구/미세조정: Base 체크포인트 + 도메인 데이터로 맞춤형 모델 구축 가능.
적합하지 않은 용도: 대량 분류/임베딩 검색/짧은 채팅. V4-Flash조차 과도할 수 있으며, 저사양 용도는 이전 체크포인트 추천.
한 줄로 요약하는 가격 책정
작성 시점 DeepSeek V4 API 요금 미정. V3.2 기준 백만 입력 토큰 0.28달러, 출력 0.42달러 수준. V4-Flash는 비슷, V4-Pro는 약간 프리미엄 예상. 폐쇄형 API(5~15달러/백만 토큰) 대비 월등히 저렴. 실시간 요금은 DeepSeek 가격 페이지 참고.
오늘 V4를 테스트하는 방법
실행 경로(빠른 순):
- 웹 채팅: chat.deepseek.com 로그인. V4-Pro 기본, UI에서 Think High 선택 가능. 무료, 즉시 사용.
-
API: 키 발급 후 클라이언트 엔드포인트를
https://api.deepseek.com으로 설정,"model": "deepseek-v4-pro"지정. OpenAI 호환 포맷 그대로 동작. 자세한 내용은 API 가이드 참고. -
로컬 가중치: Hugging Face/ModelScope에서 다운로드. V4-Flash는 2~4 H100, V4-Pro는 대규모 클러스터 필요. 추론 코드는
/inference폴더 제공.
Apidog 기반 프롬프트 반복 등 전체 활용법은 DeepSeek V4 사용법 및 무료 사용법 참고. Apidog 다운로드 후 컬렉션을 미리 구성하세요. OpenAI 호환 포맷이므로, 하나의 요청으로 DeepSeek·OpenAI·기타 프론티어 API 모두 적용 가능합니다.
자주 묻는 질문
-
DeepSeek V4는 정말 오픈 소스인가요?
- 네, 네 가지 체크포인트 모두 MIT 라이선스입니다. 상업적 사용, 수정, 재배포 모두 허용.
-
V4-Flash 실행에 GPU 클러스터가 필요한가요?
- 완전 정밀도 기준 2~4 H100/H200 필요. 양자화 시 더 적은 자원 가능. 하드웨어 없이도 API/웹채팅 사용 가능.
-
V4는 언제 DeepSeek API에 출시되나요?
- 2026년 4월 23일부로 활성화. 모델ID:
deepseek-v4-pro,deepseek-v4-flash. 기존 ID(deepseek-chat,deepseek-reasoner)는 2026년 7월 24일 사용 중단.
- 2026년 4월 23일부로 활성화. 모델ID:
-
V4는 Kimi, Qwen과 비교 시?
- LiveCodeBench, Codeforces 기준 V4-Pro가 Kimi K2, Qwen 3 Max보다 높음. 작업 부하에 맞는 벤치마크 기준으로 선택.
-
내 데이터로 V4 미세조정 가능?
- 가능. Base 체크포인트+도메인 데이터+SFT 파이프라인 조합. MIT 라이선스라 상업적 재배포도 문제 없음.
-
OpenAI 호환 도구와 작동하나요?
- 네.
https://api.deepseek.com,https://api.deepseek.com/anthropic에서 각각 OpenAI/Anthropic 메시지 포맷 지원. 대부분의 클라이언트는 URL만 변경해 사용 가능. GPT-5.5 API 가이드 참고.
- 네.
빠른 적용, 테스트, 실전 배포를 원한다면 위 가이드와 코드 스니펫을 참고해 DeepSeek V4를 직접 활용해보세요!



Top comments (0)