DEV Community

Cover image for DeepSeek V4란 무엇인가?
Rihpig
Rihpig

Posted on • Originally published at apidog.com

DeepSeek V4란 무엇인가?

DeepSeek은 2026년 4월 23일 V4를 출시했습니다. 이번 릴리스는 단순한 버전 업그레이드가 아닌, 1.6조 매개변수, MIT 라이선스, 1백만 토큰 컨텍스트 창을 갖춘 DeepSeek-V4-Pro를 비롯한 4가지 체크포인트의 동시 공개입니다. V4-Flash는 동일한 컨텍스트 및 공개 가중치로 2,840억 매개변수를 제공합니다. 벤치마크 결과 Pro 모델은 LiveCodeBench 및 Codeforces에서 Claude Opus 4.6을 앞서고, MMLU-Pro에서는 GPT-5.4 xHigh와 대등합니다.

지금 Apidog을 사용해보세요

Claude, GPT-5.5, Qwen을 DeepSeek V4로 교체할지 고민한다면 본 글에서는 DeepSeek V4의 특징, V3.2와의 차이, 주요 벤치마크, 그리고 실전 적용 방법까지 빠르게 파악할 수 있도록 안내합니다.

관련 개발자 가이드: DeepSeek V4 API 가이드, 무료 액세스 가이드, DeepSeek V4 사용 가이드 참고. OpenAI와 유사한 API 포맷이므로, Apidog에서 사전 컬렉션 구성이 가능합니다.

요약

  • DeepSeek V4는 2026년 4월 23일 MIT 라이선스로 공개된 Mixture-of-Experts(MoE) 계열 모델입니다.
  • 출시 시점 기준 4가지 체크포인트: V4-Pro, V4-Pro-Base, V4-Flash, V4-Flash-Base.
  • V4-Pro: 1.6조 매개변수 중 490억 활성화. V4-Flash: 2,840억 중 130억 활성화.
  • 두 모델 모두 1백만 토큰 컨텍스트 창 및 세 가지 추론 모드(Non-Think, Think High, Think Max) 제공.
  • 주요 벤치마크: LiveCodeBench 93.5, Codeforces 3206, MMLU-Pro 87.5 (Pro 기준).
  • API는 api.deepseek.com에서 deepseek-v4-pro, deepseek-v4-flash 모델 ID로 활성. 가중치는 Hugging Face/ModelScope에서 다운로드 가능.

DeepSeek V4는 실제로 무엇인가요?

DeepSeek V4는 V3 및 V3.2의 후속 모델로, MoE 아키텍처를 유지하되 구조와 효율성을 대폭 개선했습니다. V4-Pro의 경우 1.6조 매개변수 중 매 토큰 490억만 활성화되므로, 실제 추론 비용은 500억 매개변수 밀집 모델과 유사합니다. 자세한 기술 정보는 DeepSeek V4 모델 카드에서 확인할 수 있습니다.

architecture

네 가지 체크포인트:

  • DeepSeek-V4-Pro: 플래그십 모델, 1.6조(490억 활성), 1M 컨텍스트, API 호출용.
  • DeepSeek-V4-Pro-Base: 사전학습-only, 미세조정/연구 용도.
  • DeepSeek-V4-Flash: 경량화, 2,840억(130억 활성), 1M 컨텍스트, 저지연/로컬 배포 최적.
  • DeepSeek-V4-Flash-Base: Flash 기본 체크포인트.

모든 모델은 MIT 라이선스. GPT-5.5, Claude Opus 4.6과 달리 라이선스 비용 없이 직접 다운로드, 미러링, 미세조정, 자체 배포 가능.

V3.2에서 무엇이 바뀌었나요?

V4는 어텐션 스택과 훈련 파이프라인을 근본적으로 개선해 긴 컨텍스트와 효율성을 대폭 강화했습니다.

기능 V3.2 V4-Pro
총 매개변수 6,850억 개 1.6조 개
활성 매개변수 370억 개 490억 개
컨텍스트 창 128K 1M
추론 FLOPs (1M 컨텍스트) 기준 V3.2의 27%
KV 캐시 (1M 컨텍스트) 기준 V3.2의 10%
정밀도 FP8 FP4 + FP8 혼합
라이선스 DeepSeek 라이선스 MIT
추론 모드 단일 세 가지

핵심 개선점:

  • 하이브리드 어텐션(압축 희소 + 고압축): 1M 컨텍스트 기준 KV-캐시 10%, FLOPs 27%만 사용.
  • 매니폴드 제약 하이퍼-연결: 그래디언트 안정화, 더 깊은 네트워크 가능.
  • 뮤온(Muon) 옵티마이저: 빠른 수렴, MoE 특화.
  • 훈련 데이터 32조 토큰, 도메인별 전문가와 정책 기반 증류 2단계 파이프라인.

training pipeline

중요한 벤치마크

DeepSeek 공개 수치 기준, V4-Pro는 코드와 지식 분야에서 강력합니다. 긴 컨텍스트 검색은 경쟁 모델 대비 약간 열세.

benchmark

V4-Flash: MMLU-Pro 86.2, GPQA 88.1, LiveCodeBench 91.6, Codeforces 3052, SWE Verified 79.0. 130억 활성 모델 중 선두급. 자세한 표는 V4-Flash 카드 참고.

요약 평가: V4-Pro는 코드 및 추론 중심 작업에 매우 적합. 100만 토큰 내 대규모 검색은 Claude가 여전히 우위.

세 가지 추론 모드

모든 V4 체크포인트는 세 가지 추론 모드를 지원하며, 용도에 맞는 모드 선택이 비용 효율성에 중요합니다.

  • Non-Think: 단일 패스, 빠른 응답, 분류/라우팅/짧은 요약 등 지연 우선.
  • Think High: 복잡한 작업 기본값, 추가 추론 토큰/검증/도구 플래닝.
  • Think Max: 최상위 정확도, 긴 추론 경로, 384K 이상 컨텍스트 권장, 토큰 비용 증가.

API에서 thinking_mode 파라미터로 지정. 샘플링은 temperature=1.0, top_p=1.0 권장.

간단히 설명하는 아키텍처

V4의 효율성과 확장성은 세 가지 주요 선택에서 나옵니다.

  1. 하이브리드 어텐션: 압축 희소 어텐션 + 고압축 어텐션 병용, 1M 토큰에서 FLOPs/KV-캐시 대폭 절감.
  2. 매니폴드 제약 하이퍼-연결: 안정적인 활성화, 더 깊은 네트워크 가능.
  3. 뮤온 옵티마이저: AdamW 대체, MoE에서 더 빠른 수렴과 안정성.

이 조합이 1조 매개변수 모델에서 실제 훈련 효율을 달성합니다.

오늘날의 가용성

DeepSeek은 4가지 체크포인트와 API를 동시 공개했습니다. 2026년 4월 24일 기준:

접근 방식 접근
chat.deepseek.com 무료 웹 채팅, V4-Pro 기본, 로그인 필요
DeepSeek API api.deepseek.com에서 라이브; 모델 ID deepseek-v4-pro, deepseek-v4-flash
Hugging Face 가중치 V4-Pro, V4-Flash, 둘 다 MIT 라이선스
ModelScope 중국 사용자를 위한 미러 가중치
OpenRouter 및 애그리게이터 수일 내 예정, DeepSeek 표준 패턴
deepseek-chat / deepseek-reasoner 2026년 7월 24일 사용 중단 예정

deepseek-chat을 사용 중인 경우, deepseek-v4-pro 또는 deepseek-v4-flash로 3개월 내 마이그레이션 필요.

GPT-5.5 및 Claude와 비교

실전 관점 주요 비교:

  • 비용: V4-Pro/Flash는 공개 가중치. 자체 호스팅 시 단위 경제성 우위.
  • 코딩: LiveCodeBench, Codeforces에서 GPT-5.5/Claude Opus 대비 우위.
  • 지식: Gemini 3.1 Pro(MMLU 91.0)에 약간 뒤처지나, SimpleQA 등 일부 영역은 V4가 앞섬.
  • 긴 컨텍스트 검색: Claude Opus가 MRCR 1M 기준 약 9점 우위.
  • 라이선스: MIT로, 제품 내 자유 배포 가능.

무엇을 구축할 수 있나요?

V4의 강점에 최적화된 작업 부하:

  1. 에이전트 코딩 루프: SWE Verified 79.0, Codeforces 3206. 코드 리팩토링, 자율 테스트 등. Apidog 등 API 클라이언트로 프롬프트 튜닝 및 실시간 응답 확인.
  2. 긴 문서 추론: 1M 토큰 컨텍스트, Think High 모드 활용. 대형 모노레포, 계약, 논문 등 처리.
  3. 자체 호스팅 AI 제품: 온프레미스 요구 시 V4-Flash가 공개 가중치 중 실전 경쟁력 최초 달성.
  4. 연구/미세조정: Base 체크포인트 + 도메인 데이터로 맞춤형 모델 구축 가능.

적합하지 않은 용도: 대량 분류/임베딩 검색/짧은 채팅. V4-Flash조차 과도할 수 있으며, 저사양 용도는 이전 체크포인트 추천.

한 줄로 요약하는 가격 책정

작성 시점 DeepSeek V4 API 요금 미정. V3.2 기준 백만 입력 토큰 0.28달러, 출력 0.42달러 수준. V4-Flash는 비슷, V4-Pro는 약간 프리미엄 예상. 폐쇄형 API(5~15달러/백만 토큰) 대비 월등히 저렴. 실시간 요금은 DeepSeek 가격 페이지 참고.

오늘 V4를 테스트하는 방법

실행 경로(빠른 순):

  1. 웹 채팅: chat.deepseek.com 로그인. V4-Pro 기본, UI에서 Think High 선택 가능. 무료, 즉시 사용.
  2. API: 키 발급 후 클라이언트 엔드포인트를 https://api.deepseek.com으로 설정, "model": "deepseek-v4-pro" 지정. OpenAI 호환 포맷 그대로 동작. 자세한 내용은 API 가이드 참고.
  3. 로컬 가중치: Hugging Face/ModelScope에서 다운로드. V4-Flash는 2~4 H100, V4-Pro는 대규모 클러스터 필요. 추론 코드는 /inference 폴더 제공.

Apidog 기반 프롬프트 반복 등 전체 활용법은 DeepSeek V4 사용법무료 사용법 참고. Apidog 다운로드 후 컬렉션을 미리 구성하세요. OpenAI 호환 포맷이므로, 하나의 요청으로 DeepSeek·OpenAI·기타 프론티어 API 모두 적용 가능합니다.

자주 묻는 질문

  • DeepSeek V4는 정말 오픈 소스인가요?
    • 네, 네 가지 체크포인트 모두 MIT 라이선스입니다. 상업적 사용, 수정, 재배포 모두 허용.
  • V4-Flash 실행에 GPU 클러스터가 필요한가요?
    • 완전 정밀도 기준 2~4 H100/H200 필요. 양자화 시 더 적은 자원 가능. 하드웨어 없이도 API/웹채팅 사용 가능.
  • V4는 언제 DeepSeek API에 출시되나요?
    • 2026년 4월 23일부로 활성화. 모델ID: deepseek-v4-pro, deepseek-v4-flash. 기존 ID(deepseek-chat, deepseek-reasoner)는 2026년 7월 24일 사용 중단.
  • V4는 Kimi, Qwen과 비교 시?
    • LiveCodeBench, Codeforces 기준 V4-Pro가 Kimi K2, Qwen 3 Max보다 높음. 작업 부하에 맞는 벤치마크 기준으로 선택.
  • 내 데이터로 V4 미세조정 가능?
    • 가능. Base 체크포인트+도메인 데이터+SFT 파이프라인 조합. MIT 라이선스라 상업적 재배포도 문제 없음.
  • OpenAI 호환 도구와 작동하나요?
    • 네. https://api.deepseek.com, https://api.deepseek.com/anthropic에서 각각 OpenAI/Anthropic 메시지 포맷 지원. 대부분의 클라이언트는 URL만 변경해 사용 가능. GPT-5.5 API 가이드 참고.

빠른 적용, 테스트, 실전 배포를 원한다면 위 가이드와 코드 스니펫을 참고해 DeepSeek V4를 직접 활용해보세요!

Top comments (0)