DeepSeekは2026年4月23日にV4をリリースしました。これは軽微なポイントリリースではありません。杭州の研究室は、DeepSeek-V4-Proを筆頭に、合計1.6兆のパラメーター、MITライセンス、100万トークンのコンテキストウィンドウを持つ4つのチェックポイントを一度に公開しました。より小型の兄弟モデルであるDeepSeek-V4-Flashは、2,840億のパラメーターを持ち、同じコンテキストとオープンウェイトを備えています。ベンチマークでは、Pro版はLiveCodeBenchとCodeforcesでClaude Opus 4.6を上回り、MMLU-ProではGPT-5.4 xHighに肉薄しています。
DeepSeek V4にClaude、GPT-5.5、またはQwenを置き換えるかどうかを検討している場合、このガイドでは、モデルがどのようなものか、V3.2から何が変わったか、ベンチマークの結果を左右するアーキテクチャの選択、そして今日どこで実行できるかを解説します。
開発者向けの対応するチュートリアルとして、DeepSeek V4 APIガイド、無料アクセスガイド、および完全なDeepSeek V4使用チュートリアルを用意しています。リクエスト形式はOpenAIのフォーマットにきれいにマッピングされるため、APIキーが届く前にApidogでコレクションを事前に構築できます。
要約
- DeepSeek V4は2026年4月23日にMITライセンスでリリースされたMixture-of-Expertsファミリーです。
- リリース時には、V4-Pro、V4-Pro-Base、V4-Flash、V4-Flash-Baseの4つのチェックポイントが公開されています。
- V4-Proは合計1.6兆パラメーター(アクティブ490億)、V4-Flashは2,840億パラメーター(アクティブ130億)。
- 両バリアントとも100万トークンのコンテキストウィンドウ、推論モードはNon-Think、Think High、Think Maxの3種。
- 主要ベンチマーク: LiveCodeBench 93.5、Codeforces 3206、MMLU-Pro 87.5(Proバリアント)。
- APIは
api.deepseek.comで稼働中、モデルIDはdeepseek-v4-proとdeepseek-v4-flash。ウェイトはHugging FaceとModelScopeで公開。
DeepSeek V4の概要
DeepSeek V4はV3/V3.2シリーズの後継であり、アーキテクチャは引き続きMixture-of-Experts。ただしパラメーター構成が大きく変わっています。V4-Proは1.6兆パラメーターのうち、実際に計算するのは490億のみ。そのため大規模パラメーターモデルでありながら、実行コストは500億パラメータ級の密モデルに近いです。詳細な技術情報はDeepSeek V4モデルカードを参照してください。
リリース時の4つのチェックポイント:
- DeepSeek-V4-Pro — 主力モデル。1.6兆総パラメータ、アクティブ490億、コンテキスト100万。API利用の中心。
- DeepSeek-V4-Pro-Base — ファインチューニングや研究用のプレーンな事前学習済みモデル。
- DeepSeek-V4-Flash — 軽量バリアント。2,840億総パラメータ、アクティブ130億。同じ100万トークンのコンテキスト。低レイテンシやローカル展開向き。
- DeepSeek-V4-Flash-Base — Flash用ベースモデル。
4つ全てMITライセンスでリリース。GPT-5.5やClaude Opus 4.6はクローズドでAPI利用に高額課金が必要ですが、DeepSeek V4-Proは完全オープンウェイト。ダウンロード、ファインチューニング、社内デプロイも自由です。
V3.2からの主な変更点
V4はアテンションスタック、トレーニングパイプラインを刷新し、長文コンテキスト・効率性を同時に向上。
| 機能 | V3.2 | V4-Pro |
|---|---|---|
| 総パラメーター数 | 6850億 | 1.6兆 |
| アクティブパラメーター | 370億 | 490億 |
| コンテキストウィンドウ | 12.8万 | 100万 |
| 推論FLOPs(100万CT) | 基準値 | V3.2の27% |
| KVキャッシュ(100万CT) | 基準値 | V3.2の10% |
| 精度 | FP8 | FP4 + FP8混合 |
| ライセンス | DeepSeek独自 | MIT |
| 推論モード | シングル | 3種 |
ポイントとなる改良:
- 新ハイブリッドアテンション(Compressed Sparse + Heavily Compressed Attention):KVキャッシュの大幅圧縮を実現。
- Manifold-Constrained Hyper-Connections:より深いネットワークの安定化。
- Muonオプティマイザー:高速収束と大規模MoE向け勾配制御。
主要ベンチマーク
V4-Proはコーディング・知識系でトップクラス。長文検索はClaudeに劣る部分も。
V4-FlashはMMLU-Pro 86.2、GPQA Diamond 88.1、LiveCodeBench 91.6、Codeforces 3052、SWE Verified 79.0と、130億アクティブパラメータで最先端。自社運用・ローカル展開にも適しています。全ベンチマーク表はこちら。
用途ごとの選択ポイント:
- コーディング/オープンエンドな推論:V4-Pro
- 100万トークン検索:Claude Opus
3つの推論モード
V4系すべてのチェックポイントで3モード選択可。API/ローカル推論でthinking_modeパラメータを指定。
- Non-Think:高速。分類・ルーティング・要約などレイテンシ重視用途に。
- Think High:難易度高めの作業向け。推論トークンを出力、ツール計画や出力確認あり。
- Think Max:より長い推論トレース、自己批判的。コンテキスト38.4万トークン以上推奨。コスト増だが最高性能。
サンプリング推奨値は全モード共通でtemperature=1.0, top_p=1.0。
アーキテクチャの要点(分かりやすく)
- ハイブリッドアテンション:主要層でCompressed Sparse Attention、一部でHeavily Compressed Attentionを採用。少数の重要トークンに集中的アテンション、それ以外は圧縮。これで計算・メモリ効率を実現。
- 多様体制約型ハイパーコネクション:残差接続を多様体制約下で安定化。深層でも勾配爆発・消失を防ぐ。
- Muonオプティマイザー:AdamWより高速収束、大規模MoEの勾配制御に最適。
これらの組み合わせにより、超大規模で安定したトレーニング・推論が可能。
現在の利用可能性
2026年4月24日時点での利用状況:
| サービス | アクセス方法 |
|---|---|
| chat.deepseek.com | 無料ウェブチャット(V4-Proデフォルト、要ログイン) |
| DeepSeek API |
api.deepseek.com、モデルIDはdeepseek-v4-pro/deepseek-v4-flash
|
| Hugging Faceウェイト | V4-Pro、V4-Flash |
| ModelScope | 中国向けミラーウェイト |
| OpenRouter等 | 数日中に対応予定 |
deepseek-chat/deepseek-reasoner
|
2026年7月24日非推奨 |
注意:deepseek-chatを使用中の場合、3ヶ月以内にdeepseek-v4-pro/deepseek-v4-flashへ移行が必要です。
GPT-5.5・Claudeとの実践比較
- コスト:V4系はオープンウェイト、セルフホスト可能。大規模利用では有料APIより遥かに安価に。
- コーディング:V4-ProはLiveCodeBench/CodeforcesでGPT-5.5やClaude Opusを上回る。
- 知識幅:Gemini 3.1 ProがMMLU-Proでトップ(91.0)、V4-ProとGPT-5.5は87.5。SimpleQA-VerifiedではV4が他社を大きく引き離す。
- 長文検索:Claude OpusがMRCR 1Mで最上位。100万トークンの高精度検索用途はClaudeが無難。
- ライセンス:MITなので商用組み込みも自由。
DeepSeek V4に適した用途
エージェント的コーディングループ
SWE Verified 79.0、Codeforces 3206の性能で、大規模デバッグ/リファクタ/自動テスト修正が可能。ApidogのようなAPIクライアントと組み合わせてプロンプト・レスポンスを管理。長文ドキュメント推論
100万トークン = 契約書や研究コーパスを丸ごと処理可能。Think Highモード推奨。セルフホストAI製品
オンプレミス/プライバシー重視の要件で、V4-FlashはクローズドAPIと同等の品質をオープンウェイトで実現。研究・ファインチューニング
ベースチェックポイントでカスタムSFTやRLHF。MITライセンスなので商用成果物も配布可能。
適さない用途:大量分類・埋め込み検索・短文チャット用途はV4-Flashでもオーバースペック。従来のDeepSeekモデル推奨。
価格情報
2026年4月時点でAPI料金表は未公表。V3.2は入力100万トークン=0.28ドル、出力100万トークン=0.42ドル。V4系も同等または若干上の水準予想。競合API(GPT-5.5/Claude)は5〜15ドル/100万トークンなので、V4が3倍値上がりしても十分安価。最新価格はDeepSeekの料金ページで確認。
今日V4をテストする方法
最短で試す3つの方法:
ウェブチャット
chat.deepseek.comにサインイン。V4-Proがデフォルト。UIでThink Highに切替可能。無料・カード不要。API
APIキー取得後、クライアントをhttps://api.deepseek.comに設定し、"model": "deepseek-v4-pro"でリクエスト(OpenAI互換)。OpenAIクライアントはベースURLを変えるだけで利用可。詳細はAPIガイド参照。
{
"model": "deepseek-v4-pro",
"messages": [
{"role": "system", "content": "あなたは有能なAIアシスタントです。"},
{"role": "user", "content": "DeepSeek V4の特徴を教えてください。"}
],
"thinking_mode": "think_high"
}
-
ローカルウェイト
Hugging FaceまたはModelScopeからモデル取得。V4-Flashは2〜4台のH100で動作、V4-Proは大規模クラスタ必須。推論コードはリポジトリの
/inferenceにあり。
プロンプト反復を含むハンズオンはDeepSeek V4の使用方法、無料運用は無料運用ガイドを参照。Apidogをダウンロードして事前にコレクション構築も可能です。OpenAI互換フォーマットなので、DeepSeek・OpenAI・他APIでも同一リクエストが使えます。
よくある質問
Q: DeepSeek V4は本当にオープンソースですか?
A: はい。4つの全モデルにMITライセンスが付与されており、商用利用・改変・再配布も制限なし。
Q: V4-Flashを動かすにはGPUクラスタが必要?
A: フル精度ならH100/H200が2~4台。量子化でさらに少ないGPUでも可。V4-Proは大規模クラスタ必須。ハードウェアなしならAPIやchat.deepseek.com利用を。
Q: APIではいつ利用可能?
A: 2026年4月23日からdeepseek-v4-pro/deepseek-v4-flashで稼働中。deepseek-chat/deepseek-reasonerは7月24日非推奨化。
Q: KimiやQwenと比較すると?
A: V4-ProはKimi K2・Qwen 3 MaxよりLiveCodeBench/Codeforcesで高スコア。全てオープンウェイトMoE系統。用途に合うベンチマークで判断を。
Q: 自社データでファインチューニング可能?
A: 可能。ベースモデル+自社データ+標準SFTパイプラインでOK。MITライセンスなので商用配布も可。
Q: OpenAI互換ツールで使える?
A: はい。API(https://api.deepseek.com)はOpenAI形式、/anthropicはAnthropic形式に対応。ほとんどのOpenAIクライアントはベースURL変更だけで利用可能。参考: GPT-5.5 APIウォークスルー。



Top comments (0)