DeepSeek merilis V4 pada 23 April 2026—ini bukan sekadar pembaruan minor. Laboratorium Hangzhou merilis empat checkpoint sekaligus, dipimpin oleh DeepSeek-V4-Pro (1,6 triliun parameter, lisensi MIT, jendela konteks 1 juta token). Varian lebih ringan, DeepSeek-V4-Flash, hadir dengan 284 miliar parameter dan jendela konteks identik. Benchmark menempatkan Pro di atas Claude Opus 4.6 pada LiveCodeBench dan Codeforces, serta hampir setara dengan GPT-5.4 xHigh pada MMLU-Pro.
Jika Anda mempertimbangkan untuk migrasi dari Claude, GPT-5.5, atau Qwen ke DeepSeek V4, artikel ini membahas model, perubahan dari V3.2, arsitektur yang melandasi benchmark, serta cara implementasi langsung hari ini.
Untuk implementasi developer, cek panduan API DeepSeek V4, panduan akses gratis, dan panduan penggunaan DeepSeek V4 lengkap. Format permintaan kompatibel OpenAI, sehingga Anda dapat langsung membuat koleksi di Apidog sebelum API key Anda aktif.
Intinya
- DeepSeek V4 adalah keluarga Mixture-of-Experts (MoE) dirilis 23 April 2026 di bawah lisensi MIT.
- Empat checkpoint: V4-Pro, V4-Pro-Base, V4-Flash, dan V4-Flash-Base.
- V4-Pro: total 1.6T parameter, 49B aktif; V4-Flash: total 284B, 13B aktif.
- Keduanya menawarkan jendela konteks 1M token dan tiga mode penalaran: Non-Think, Think High, Think Max.
- Skor utama: LiveCodeBench 93.5, Codeforces 3206, MMLU-Pro 87.5 (varian Pro).
- API tersedia di
api.deepseek.comdengan model IDdeepseek-v4-prodandeepseek-v4-flash; bobot ada di Hugging Face & ModelScope.
Apa sebenarnya DeepSeek V4 itu
DeepSeek V4 adalah penerus V3/V3.2. Arsitektur tetap MoE, namun dengan skema aktivasi parameter yang lebih efisien: V4-Pro hanya mengaktifkan 49 miliar dari 1.6T parameternya per token, mendekati biaya model dense 50B. Lihat detail teknis di kartu model DeepSeek V4.
Empat checkpoint peluncuran:
- DeepSeek-V4-Pro — andalan utama. 1.6T total, 49B aktif, konteks 1M. API utama.
- DeepSeek-V4-Pro-Base — basis pretrain, tanpa post-train. Untuk eksperimen fine-tune.
- DeepSeek-V4-Flash — varian efisien. 284B total, 13B aktif, 1M konteks. Untuk latency-sensitif & deployment lokal (2-3x H100).
- DeepSeek-V4-Flash-Base — basis untuk Flash.
Semua checkpoint berlisensi MIT. Bobot terbuka: unduh, modifikasi, deploy di hardware sendiri tanpa biaya lisensi. GPT-5.5 dan Claude Opus 4.6 tetap tertutup dan berbayar.
Apa yang berubah dari V3.2
V3 sudah kompetitif dalam reasoning & coding. V4 menyempurnakan attention stack dan jalur train, mendorong efisiensi serta konteks panjang.
| Kapabilitas | V3.2 | V4-Pro |
|---|---|---|
| Total parameter | 685B | 1.6T |
| Parameter aktif | 37B | 49B |
| Jendela konteks | 128K | 1M |
| FLOP inferensi (konteks 1M) | baseline | 27% dari V3.2 |
| Cache KV (konteks 1M) | baseline | 10% dari V3.2 |
| Presisi | FP8 | FP4 + FP8 campuran |
| Lisensi | DeepSeek | MIT |
| Mode penalaran | tunggal | tiga |
Tiga fitur utama:
- Attention stack hybrid: Compressed Sparse Attention + Heavily Compressed Attention → efisiensi cache KV (10% dari V3.2).
- Manifold-Constrained Hyper-Connections: stabilisasi gradien untuk kedalaman tinggi.
- Optimizer Muon: konvergensi lebih cepat dari AdamW.
Korpus training >32 triliun token, post-training dua tahap (domain specialization lalu policy distillation).
Benchmark yang penting
DeepSeek V4-Pro: terdepan untuk coding & factual recall, masih kalah dalam retrieval 1M token.
V4-Flash (13B aktif): MMLU-Pro 86.2, GPQA Diamond 88.1, LiveCodeBench 91.6, Codeforces 3052, SWE Verified 79.0. Ini menjadikan Flash sangat menarik untuk deployment hardware mandiri. Lihat kartu DeepSeek V4-Flash untuk detail.
- V4-Pro unggul pada coding & factual recall.
- Tertinggal dari Gemini 3.1 Pro (pengetahuan umum) dan Claude Opus (retrieval 1M token).
- Untuk agentic coding/analitik berat reasoning, V4-Pro sangat relevan.
- Untuk retrieval ekstrim (1M token), Claude masih unggul.
Tiga mode penalaran
Setiap checkpoint V4 mendukung tiga mode reasoning, bisa dipilih via parameter API/flag:
- Non-Think: inference cepat, tanpa chain-of-thought. Untuk klasifikasi, routing, summarization singkat.
- Think High: default untuk tugas berat. Chain-of-thought, planning, output check.
- Think Max: reasoning panjang, kritik diri maksimal, disarankan min 384K konteks. Mode untuk benchmark maksimal (misal LiveCodeBench).
Parameter API: thinking_mode. Rekomendasi sampling: temperature=1.0, top_p=1.0 untuk ketiganya.
Arsitektur dalam bahasa sederhana
Tiga hal utama yang membedakan V4:
- Attention hybrid: Compressed Sparse & Heavily Compressed Attention di layer transformer → 27% FLOP & 10% cache KV pada 1M token.
- Manifold-Constrained Hyper-Connections: residual connection dibatasi manifold, memungkinkan stacking lebih dalam tanpa gradient collapse.
- Optimizer Muon: lebih cepat dari AdamW, lebih stabil untuk model MoE besar.
Kombinasi ini membuat training triliunan parameter tetap stabil dan efisien.
Ketersediaan hari ini
Semua checkpoint & API tersedia sejak peluncuran.
| Platform | Akses |
|---|---|
| chat.deepseek.com | Web chat gratis, default V4-Pro, login wajib |
| DeepSeek API |
api.deepseek.com dengan model ID deepseek-v4-pro & deepseek-v4-flash
|
| Bobot Hugging Face | V4-Pro, V4-Flash, lisensi MIT |
| ModelScope | Bobot mirrored untuk pengguna Tiongkok |
| OpenRouter & agregator | Segera hadir, pola rilis biasa DeepSeek |
deepseek-chat / deepseek-reasoner
|
Dihentikan per 24 Juli 2026 |
Jika Anda masih gunakan deepseek-chat di produksi, migrasi ke deepseek-v4-pro atau deepseek-v4-flash dalam 3 bulan.
Perbandingan dengan GPT-5.5 dan Claude
- Biaya: V4-Pro & V4-Flash open weight. GPT-5.5/Claude Opus tertutup. Hosting sendiri → V4 unggul secara ekonomi.
- Coding: V4-Pro (LiveCodeBench 93.5, Codeforces 3206) mengungguli GPT-5.5 & Claude Opus.
- Pengetahuan: Gemini 3.1 Pro unggul MMLU-Pro (91.0); GPT-5.5 & V4-Pro seri (87.5). V4 menang pada SimpleQA-Verified.
- Retrieval konteks panjang: Claude Opus unggul (MRCR 1M).
- Lisensi: MIT, bisa dipakai di produk komersial tanpa persetujuan tambahan.
Apa yang bisa dibangun dengannya
Empat use case utama:
- Agentic coding loop: SWE Verified & Codeforces tinggi → debugging multi-file, refactoring sadar repo, auto-fix. Gunakan Apidog untuk testing permintaan/respons API.
- Long-context reasoning: 1M token cukup untuk monorepo, kontrak, korpus riset. Gunakan mode Think High.
- Produk AI self-hosted: V4-Flash = model open weight pertama yang bersaing dengan API komersial kualitas tinggi.
- Research & fine-tuning: Checkpoint Base untuk fine-tune custom, tinggal pairing dengan data domain Anda.
Tidak cocok untuk: klasifikasi volume tinggi, embedding retrieval, chat singkat—model lama DeepSeek lebih hemat.
Harga dalam satu baris
Harga V4 belum final. V3.2: ~$0.28/juta token input, ~$0.42/juta token output. Prediksi: V4-Flash di kisaran sama, V4-Pro sedikit lebih mahal. Kompetitor tertutup $5–15/juta input. Update harga di halaman harga DeepSeek.
Cara menguji V4 hari ini
Tiga cara utama, urut tercepat:
- Web chat: Buka chat.deepseek.com, login, default V4-Pro. Ubah mode ke Think High di UI. Gratis, langsung pakai.
-
API: Dapatkan API key, endpoint:
https://api.deepseek.com, set"model": "deepseek-v4-pro". Format request kompatibel OpenAI, bisa pakai klien OpenAI dengan mengganti base URL. Panduan lengkap di panduan API DeepSeek V4. -
Bobot lokal: Download dari Hugging Face/ModelScope. V4-Flash: 2-4 H100, V4-Pro: butuh cluster besar. Kode inferensi di folder
/inferencerepo model.
Untuk iterasi prompt berbasis Apidog, cek panduan penggunaan DeepSeek V4. Untuk akses gratis, cek cara menggunakan DeepSeek V4 secara gratis. Unduh Apidog dan buat koleksi Anda—format OpenAI-compatible, satu request jalan di DeepSeek, OpenAI, dan API lain.
FAQ
Apakah DeepSeek V4 benar-benar open source?
Ya. Semua checkpoint berlisensi MIT—boleh digunakan, dimodifikasi, didistribusikan ulang, termasuk komersial.Apakah butuh cluster GPU untuk V4-Flash?
Minimal 2–4 H100/H200 untuk full precision, bisa dikurangi dengan quantization. V4-Pro butuh cluster serius. Untuk uji coba tanpa hardware, pakai API atau chat.deepseek.com.Kapan V4 tersedia di DeepSeek API?
Sejak 23 April 2026. Model ID:deepseek-v4-pro,deepseek-v4-flash.deepseek-chatdandeepseek-reasonerdihentikan 24 Juli 2026.Bagaimana V4 dibandingkan dengan Kimi dan Qwen?
V4-Pro mengungguli Kimi K2 dan Qwen 3 Max pada LiveCodeBench & Codeforces (berdasarkan data DeepSeek). Semua MoE open weight, pilih berdasarkan benchmark sesuai workload Anda.Bisakah saya fine-tune V4 pada data saya sendiri?
Bisa. Gunakan Checkpoint Base + data domain + pipeline SFT standar. MIT license mencakup redistribusi komersial.Apakah V4 kompatibel dengan tools OpenAI?
Ya. API menerima format OpenAI & Anthropic (https://api.deepseek.comdanhttps://api.deepseek.com/anthropic). Sebagian besar klien OpenAI bisa langsung dipakai dengan ganti base URL. Lihat juga panduan API GPT-5.5 untuk pola paralel.



Top comments (0)