DEV Community

Cover image for DeepSeek V4とは?
Akira
Akira

Posted on • Originally published at apidog.com

DeepSeek V4とは?

DeepSeekは2026年4月23日にV4をリリースしました。これは軽微なポイントリリースではありません。杭州の研究室は、DeepSeek-V4-Proを筆頭に、合計1.6兆のパラメーター、MITライセンス、100万トークンのコンテキストウィンドウを持つ4つのチェックポイントを一度に公開しました。より小型の兄弟モデルであるDeepSeek-V4-Flashは、2,840億のパラメーターを持ち、同じコンテキストとオープンウェイトを備えています。ベンチマークでは、Pro版はLiveCodeBenchとCodeforcesでClaude Opus 4.6を上回り、MMLU-ProではGPT-5.4 xHighに肉薄しています。

Apidogを今すぐ試す

DeepSeek V4にClaude、GPT-5.5、またはQwenを置き換えるかどうかを検討している場合、このガイドでは、モデルがどのようなものか、V3.2から何が変わったか、ベンチマークの結果を左右するアーキテクチャの選択、そして今日どこで実行できるかを解説します。

開発者向けの対応するチュートリアルとして、DeepSeek V4 APIガイド無料アクセスガイド、および完全なDeepSeek V4使用チュートリアルを用意しています。リクエスト形式はOpenAIのフォーマットにきれいにマッピングされるため、APIキーが届く前にApidogでコレクションを事前に構築できます。

要約

  • DeepSeek V4は2026年4月23日にMITライセンスでリリースされたMixture-of-Expertsファミリーです。
  • リリース時には、V4-ProV4-Pro-BaseV4-FlashV4-Flash-Baseの4つのチェックポイントが公開されています。
  • V4-Proは合計1.6兆パラメーター(アクティブ490億)、V4-Flashは2,840億パラメーター(アクティブ130億)。
  • 両バリアントとも100万トークンのコンテキストウィンドウ、推論モードはNon-Think、Think High、Think Maxの3種。
  • 主要ベンチマーク: LiveCodeBench 93.5Codeforces 3206MMLU-Pro 87.5(Proバリアント)。
  • APIはapi.deepseek.comで稼働中、モデルIDはdeepseek-v4-prodeepseek-v4-flash。ウェイトはHugging FaceとModelScopeで公開。

DeepSeek V4の概要

DeepSeek V4はV3/V3.2シリーズの後継であり、アーキテクチャは引き続きMixture-of-Experts。ただしパラメーター構成が大きく変わっています。V4-Proは1.6兆パラメーターのうち、実際に計算するのは490億のみ。そのため大規模パラメーターモデルでありながら、実行コストは500億パラメータ級の密モデルに近いです。詳細な技術情報はDeepSeek V4モデルカードを参照してください。

DeepSeek V4モデルカードの概要

リリース時の4つのチェックポイント:

  • DeepSeek-V4-Pro — 主力モデル。1.6兆総パラメータ、アクティブ490億、コンテキスト100万。API利用の中心。
  • DeepSeek-V4-Pro-Base — ファインチューニングや研究用のプレーンな事前学習済みモデル。
  • DeepSeek-V4-Flash — 軽量バリアント。2,840億総パラメータ、アクティブ130億。同じ100万トークンのコンテキスト。低レイテンシやローカル展開向き。
  • DeepSeek-V4-Flash-Base — Flash用ベースモデル。

4つ全てMITライセンスでリリース。GPT-5.5やClaude Opus 4.6はクローズドでAPI利用に高額課金が必要ですが、DeepSeek V4-Proは完全オープンウェイト。ダウンロード、ファインチューニング、社内デプロイも自由です。

V3.2からの主な変更点

V4はアテンションスタック、トレーニングパイプラインを刷新し、長文コンテキスト・効率性を同時に向上。

機能 V3.2 V4-Pro
総パラメーター数 6850億 1.6兆
アクティブパラメーター 370億 490億
コンテキストウィンドウ 12.8万 100万
推論FLOPs(100万CT) 基準値 V3.2の27%
KVキャッシュ(100万CT) 基準値 V3.2の10%
精度 FP8 FP4 + FP8混合
ライセンス DeepSeek独自 MIT
推論モード シングル 3種

ポイントとなる改良:

  1. 新ハイブリッドアテンション(Compressed Sparse + Heavily Compressed Attention):KVキャッシュの大幅圧縮を実現。
  2. Manifold-Constrained Hyper-Connections:より深いネットワークの安定化。
  3. Muonオプティマイザー:高速収束と大規模MoE向け勾配制御。

DeepSeek V4アーキテクチャの概要

主要ベンチマーク

V4-Proはコーディング・知識系でトップクラス。長文検索はClaudeに劣る部分も。

DeepSeek V4-Pro対Claude対GPT-5.5のベンチマーク

V4-FlashはMMLU-Pro 86.2GPQA Diamond 88.1LiveCodeBench 91.6Codeforces 3052SWE Verified 79.0と、130億アクティブパラメータで最先端。自社運用・ローカル展開にも適しています。全ベンチマーク表はこちら

用途ごとの選択ポイント:

  • コーディング/オープンエンドな推論:V4-Pro
  • 100万トークン検索:Claude Opus

3つの推論モード

V4系すべてのチェックポイントで3モード選択可。API/ローカル推論でthinking_modeパラメータを指定。

  • Non-Think:高速。分類・ルーティング・要約などレイテンシ重視用途に。
  • Think High:難易度高めの作業向け。推論トークンを出力、ツール計画や出力確認あり。
  • Think Max:より長い推論トレース、自己批判的。コンテキスト38.4万トークン以上推奨。コスト増だが最高性能。

サンプリング推奨値は全モード共通でtemperature=1.0, top_p=1.0

アーキテクチャの要点(分かりやすく)

  • ハイブリッドアテンション:主要層でCompressed Sparse Attention、一部でHeavily Compressed Attentionを採用。少数の重要トークンに集中的アテンション、それ以外は圧縮。これで計算・メモリ効率を実現。
  • 多様体制約型ハイパーコネクション:残差接続を多様体制約下で安定化。深層でも勾配爆発・消失を防ぐ。
  • Muonオプティマイザー:AdamWより高速収束、大規模MoEの勾配制御に最適。

これらの組み合わせにより、超大規模で安定したトレーニング・推論が可能。

現在の利用可能性

2026年4月24日時点での利用状況:

サービス アクセス方法
chat.deepseek.com 無料ウェブチャット(V4-Proデフォルト、要ログイン)
DeepSeek API api.deepseek.com、モデルIDはdeepseek-v4-pro/deepseek-v4-flash
Hugging Faceウェイト V4-ProV4-Flash
ModelScope 中国向けミラーウェイト
OpenRouter等 数日中に対応予定
deepseek-chat/deepseek-reasoner 2026年7月24日非推奨

注意deepseek-chatを使用中の場合、3ヶ月以内にdeepseek-v4-pro/deepseek-v4-flashへ移行が必要です。

GPT-5.5・Claudeとの実践比較

  • コスト:V4系はオープンウェイト、セルフホスト可能。大規模利用では有料APIより遥かに安価に。
  • コーディング:V4-ProはLiveCodeBench/CodeforcesでGPT-5.5やClaude Opusを上回る。
  • 知識幅:Gemini 3.1 ProがMMLU-Proでトップ(91.0)、V4-ProとGPT-5.5は87.5。SimpleQA-VerifiedではV4が他社を大きく引き離す。
  • 長文検索:Claude OpusがMRCR 1Mで最上位。100万トークンの高精度検索用途はClaudeが無難。
  • ライセンス:MITなので商用組み込みも自由。

DeepSeek V4に適した用途

  1. エージェント的コーディングループ

    SWE Verified 79.0、Codeforces 3206の性能で、大規模デバッグ/リファクタ/自動テスト修正が可能。ApidogのようなAPIクライアントと組み合わせてプロンプト・レスポンスを管理。

  2. 長文ドキュメント推論

    100万トークン = 契約書や研究コーパスを丸ごと処理可能。Think Highモード推奨。

  3. セルフホストAI製品

    オンプレミス/プライバシー重視の要件で、V4-FlashはクローズドAPIと同等の品質をオープンウェイトで実現。

  4. 研究・ファインチューニング

    ベースチェックポイントでカスタムSFTやRLHF。MITライセンスなので商用成果物も配布可能。

適さない用途:大量分類・埋め込み検索・短文チャット用途はV4-Flashでもオーバースペック。従来のDeepSeekモデル推奨。

価格情報

2026年4月時点でAPI料金表は未公表。V3.2は入力100万トークン=0.28ドル、出力100万トークン=0.42ドル。V4系も同等または若干上の水準予想。競合API(GPT-5.5/Claude)は5〜15ドル/100万トークンなので、V4が3倍値上がりしても十分安価。最新価格はDeepSeekの料金ページで確認。

今日V4をテストする方法

最短で試す3つの方法:

  1. ウェブチャット

    chat.deepseek.comにサインイン。V4-Proがデフォルト。UIでThink Highに切替可能。無料・カード不要。

  2. API

    APIキー取得後、クライアントをhttps://api.deepseek.comに設定し、"model": "deepseek-v4-pro"でリクエスト(OpenAI互換)。OpenAIクライアントはベースURLを変えるだけで利用可。詳細はAPIガイド参照。

   {
     "model": "deepseek-v4-pro",
     "messages": [
       {"role": "system", "content": "あなたは有能なAIアシスタントです。"},
       {"role": "user", "content": "DeepSeek V4の特徴を教えてください。"}
     ],
     "thinking_mode": "think_high"
   }
Enter fullscreen mode Exit fullscreen mode
  1. ローカルウェイト Hugging FaceまたはModelScopeからモデル取得。V4-Flashは2〜4台のH100で動作、V4-Proは大規模クラスタ必須。推論コードはリポジトリの/inferenceにあり。

プロンプト反復を含むハンズオンはDeepSeek V4の使用方法、無料運用は無料運用ガイドを参照。Apidogをダウンロードして事前にコレクション構築も可能です。OpenAI互換フォーマットなので、DeepSeek・OpenAI・他APIでも同一リクエストが使えます。

よくある質問

Q: DeepSeek V4は本当にオープンソースですか?

A: はい。4つの全モデルにMITライセンスが付与されており、商用利用・改変・再配布も制限なし。

Q: V4-Flashを動かすにはGPUクラスタが必要?

A: フル精度ならH100/H200が2~4台。量子化でさらに少ないGPUでも可。V4-Proは大規模クラスタ必須。ハードウェアなしならAPIやchat.deepseek.com利用を。

Q: APIではいつ利用可能?

A: 2026年4月23日からdeepseek-v4-pro/deepseek-v4-flashで稼働中。deepseek-chat/deepseek-reasonerは7月24日非推奨化。

Q: KimiやQwenと比較すると?

A: V4-ProはKimi K2・Qwen 3 MaxよりLiveCodeBench/Codeforcesで高スコア。全てオープンウェイトMoE系統。用途に合うベンチマークで判断を。

Q: 自社データでファインチューニング可能?

A: 可能。ベースモデル+自社データ+標準SFTパイプラインでOK。MITライセンスなので商用配布も可。

Q: OpenAI互換ツールで使える?

A: はい。API(https://api.deepseek.com)はOpenAI形式、/anthropicはAnthropic形式に対応。ほとんどのOpenAIクライアントはベースURL変更だけで利用可能。参考: GPT-5.5 APIウォークスルー

Top comments (0)