DEV Community

Cover image for DeepSeek V4: Apa Itu dan Kegunaannya?
Walse
Walse

Posted on • Originally published at apidog.com

DeepSeek V4: Apa Itu dan Kegunaannya?

DeepSeek merilis V4 pada 23 April 2026—ini bukan sekadar pembaruan minor. Laboratorium Hangzhou merilis empat checkpoint sekaligus, dipimpin oleh DeepSeek-V4-Pro (1,6 triliun parameter, lisensi MIT, jendela konteks 1 juta token). Varian lebih ringan, DeepSeek-V4-Flash, hadir dengan 284 miliar parameter dan jendela konteks identik. Benchmark menempatkan Pro di atas Claude Opus 4.6 pada LiveCodeBench dan Codeforces, serta hampir setara dengan GPT-5.4 xHigh pada MMLU-Pro.

Coba Apidog hari ini

Jika Anda mempertimbangkan untuk migrasi dari Claude, GPT-5.5, atau Qwen ke DeepSeek V4, artikel ini membahas model, perubahan dari V3.2, arsitektur yang melandasi benchmark, serta cara implementasi langsung hari ini.

Untuk implementasi developer, cek panduan API DeepSeek V4, panduan akses gratis, dan panduan penggunaan DeepSeek V4 lengkap. Format permintaan kompatibel OpenAI, sehingga Anda dapat langsung membuat koleksi di Apidog sebelum API key Anda aktif.

Intinya

  • DeepSeek V4 adalah keluarga Mixture-of-Experts (MoE) dirilis 23 April 2026 di bawah lisensi MIT.
  • Empat checkpoint: V4-Pro, V4-Pro-Base, V4-Flash, dan V4-Flash-Base.
  • V4-Pro: total 1.6T parameter, 49B aktif; V4-Flash: total 284B, 13B aktif.
  • Keduanya menawarkan jendela konteks 1M token dan tiga mode penalaran: Non-Think, Think High, Think Max.
  • Skor utama: LiveCodeBench 93.5, Codeforces 3206, MMLU-Pro 87.5 (varian Pro).
  • API tersedia di api.deepseek.com dengan model ID deepseek-v4-pro dan deepseek-v4-flash; bobot ada di Hugging Face & ModelScope.

Apa sebenarnya DeepSeek V4 itu

DeepSeek V4 adalah penerus V3/V3.2. Arsitektur tetap MoE, namun dengan skema aktivasi parameter yang lebih efisien: V4-Pro hanya mengaktifkan 49 miliar dari 1.6T parameternya per token, mendekati biaya model dense 50B. Lihat detail teknis di kartu model DeepSeek V4.

DeepSeek V4 Architecture

Empat checkpoint peluncuran:

  • DeepSeek-V4-Pro — andalan utama. 1.6T total, 49B aktif, konteks 1M. API utama.
  • DeepSeek-V4-Pro-Base — basis pretrain, tanpa post-train. Untuk eksperimen fine-tune.
  • DeepSeek-V4-Flash — varian efisien. 284B total, 13B aktif, 1M konteks. Untuk latency-sensitif & deployment lokal (2-3x H100).
  • DeepSeek-V4-Flash-Base — basis untuk Flash.

Semua checkpoint berlisensi MIT. Bobot terbuka: unduh, modifikasi, deploy di hardware sendiri tanpa biaya lisensi. GPT-5.5 dan Claude Opus 4.6 tetap tertutup dan berbayar.

Apa yang berubah dari V3.2

V3 sudah kompetitif dalam reasoning & coding. V4 menyempurnakan attention stack dan jalur train, mendorong efisiensi serta konteks panjang.

Kapabilitas V3.2 V4-Pro
Total parameter 685B 1.6T
Parameter aktif 37B 49B
Jendela konteks 128K 1M
FLOP inferensi (konteks 1M) baseline 27% dari V3.2
Cache KV (konteks 1M) baseline 10% dari V3.2
Presisi FP8 FP4 + FP8 campuran
Lisensi DeepSeek MIT
Mode penalaran tunggal tiga

Tiga fitur utama:

  1. Attention stack hybrid: Compressed Sparse Attention + Heavily Compressed Attention → efisiensi cache KV (10% dari V3.2).
  2. Manifold-Constrained Hyper-Connections: stabilisasi gradien untuk kedalaman tinggi.
  3. Optimizer Muon: konvergensi lebih cepat dari AdamW.

Korpus training >32 triliun token, post-training dua tahap (domain specialization lalu policy distillation).

Detail Arsitektur

Benchmark yang penting

DeepSeek V4-Pro: terdepan untuk coding & factual recall, masih kalah dalam retrieval 1M token.

Benchmark DeepSeek

V4-Flash (13B aktif): MMLU-Pro 86.2, GPQA Diamond 88.1, LiveCodeBench 91.6, Codeforces 3052, SWE Verified 79.0. Ini menjadikan Flash sangat menarik untuk deployment hardware mandiri. Lihat kartu DeepSeek V4-Flash untuk detail.

  • V4-Pro unggul pada coding & factual recall.
  • Tertinggal dari Gemini 3.1 Pro (pengetahuan umum) dan Claude Opus (retrieval 1M token).
  • Untuk agentic coding/analitik berat reasoning, V4-Pro sangat relevan.
  • Untuk retrieval ekstrim (1M token), Claude masih unggul.

Tiga mode penalaran

Setiap checkpoint V4 mendukung tiga mode reasoning, bisa dipilih via parameter API/flag:

  • Non-Think: inference cepat, tanpa chain-of-thought. Untuk klasifikasi, routing, summarization singkat.
  • Think High: default untuk tugas berat. Chain-of-thought, planning, output check.
  • Think Max: reasoning panjang, kritik diri maksimal, disarankan min 384K konteks. Mode untuk benchmark maksimal (misal LiveCodeBench).

Parameter API: thinking_mode. Rekomendasi sampling: temperature=1.0, top_p=1.0 untuk ketiganya.

Arsitektur dalam bahasa sederhana

Tiga hal utama yang membedakan V4:

  1. Attention hybrid: Compressed Sparse & Heavily Compressed Attention di layer transformer → 27% FLOP & 10% cache KV pada 1M token.
  2. Manifold-Constrained Hyper-Connections: residual connection dibatasi manifold, memungkinkan stacking lebih dalam tanpa gradient collapse.
  3. Optimizer Muon: lebih cepat dari AdamW, lebih stabil untuk model MoE besar.

Kombinasi ini membuat training triliunan parameter tetap stabil dan efisien.

Ketersediaan hari ini

Semua checkpoint & API tersedia sejak peluncuran.

Platform Akses
chat.deepseek.com Web chat gratis, default V4-Pro, login wajib
DeepSeek API api.deepseek.com dengan model ID deepseek-v4-pro & deepseek-v4-flash
Bobot Hugging Face V4-Pro, V4-Flash, lisensi MIT
ModelScope Bobot mirrored untuk pengguna Tiongkok
OpenRouter & agregator Segera hadir, pola rilis biasa DeepSeek
deepseek-chat / deepseek-reasoner Dihentikan per 24 Juli 2026

Jika Anda masih gunakan deepseek-chat di produksi, migrasi ke deepseek-v4-pro atau deepseek-v4-flash dalam 3 bulan.

Perbandingan dengan GPT-5.5 dan Claude

  • Biaya: V4-Pro & V4-Flash open weight. GPT-5.5/Claude Opus tertutup. Hosting sendiri → V4 unggul secara ekonomi.
  • Coding: V4-Pro (LiveCodeBench 93.5, Codeforces 3206) mengungguli GPT-5.5 & Claude Opus.
  • Pengetahuan: Gemini 3.1 Pro unggul MMLU-Pro (91.0); GPT-5.5 & V4-Pro seri (87.5). V4 menang pada SimpleQA-Verified.
  • Retrieval konteks panjang: Claude Opus unggul (MRCR 1M).
  • Lisensi: MIT, bisa dipakai di produk komersial tanpa persetujuan tambahan.

Apa yang bisa dibangun dengannya

Empat use case utama:

  1. Agentic coding loop: SWE Verified & Codeforces tinggi → debugging multi-file, refactoring sadar repo, auto-fix. Gunakan Apidog untuk testing permintaan/respons API.
  2. Long-context reasoning: 1M token cukup untuk monorepo, kontrak, korpus riset. Gunakan mode Think High.
  3. Produk AI self-hosted: V4-Flash = model open weight pertama yang bersaing dengan API komersial kualitas tinggi.
  4. Research & fine-tuning: Checkpoint Base untuk fine-tune custom, tinggal pairing dengan data domain Anda.

Tidak cocok untuk: klasifikasi volume tinggi, embedding retrieval, chat singkat—model lama DeepSeek lebih hemat.

Harga dalam satu baris

Harga V4 belum final. V3.2: ~$0.28/juta token input, ~$0.42/juta token output. Prediksi: V4-Flash di kisaran sama, V4-Pro sedikit lebih mahal. Kompetitor tertutup $5–15/juta input. Update harga di halaman harga DeepSeek.

Cara menguji V4 hari ini

Tiga cara utama, urut tercepat:

  1. Web chat: Buka chat.deepseek.com, login, default V4-Pro. Ubah mode ke Think High di UI. Gratis, langsung pakai.
  2. API: Dapatkan API key, endpoint: https://api.deepseek.com, set "model": "deepseek-v4-pro". Format request kompatibel OpenAI, bisa pakai klien OpenAI dengan mengganti base URL. Panduan lengkap di panduan API DeepSeek V4.
  3. Bobot lokal: Download dari Hugging Face/ModelScope. V4-Flash: 2-4 H100, V4-Pro: butuh cluster besar. Kode inferensi di folder /inference repo model.

Untuk iterasi prompt berbasis Apidog, cek panduan penggunaan DeepSeek V4. Untuk akses gratis, cek cara menggunakan DeepSeek V4 secara gratis. Unduh Apidog dan buat koleksi Anda—format OpenAI-compatible, satu request jalan di DeepSeek, OpenAI, dan API lain.

FAQ

  • Apakah DeepSeek V4 benar-benar open source?

    Ya. Semua checkpoint berlisensi MIT—boleh digunakan, dimodifikasi, didistribusikan ulang, termasuk komersial.

  • Apakah butuh cluster GPU untuk V4-Flash?

    Minimal 2–4 H100/H200 untuk full precision, bisa dikurangi dengan quantization. V4-Pro butuh cluster serius. Untuk uji coba tanpa hardware, pakai API atau chat.deepseek.com.

  • Kapan V4 tersedia di DeepSeek API?

    Sejak 23 April 2026. Model ID: deepseek-v4-pro, deepseek-v4-flash. deepseek-chat dan deepseek-reasoner dihentikan 24 Juli 2026.

  • Bagaimana V4 dibandingkan dengan Kimi dan Qwen?

    V4-Pro mengungguli Kimi K2 dan Qwen 3 Max pada LiveCodeBench & Codeforces (berdasarkan data DeepSeek). Semua MoE open weight, pilih berdasarkan benchmark sesuai workload Anda.

  • Bisakah saya fine-tune V4 pada data saya sendiri?

    Bisa. Gunakan Checkpoint Base + data domain + pipeline SFT standar. MIT license mencakup redistribusi komersial.

  • Apakah V4 kompatibel dengan tools OpenAI?

    Ya. API menerima format OpenAI & Anthropic (https://api.deepseek.com dan https://api.deepseek.com/anthropic). Sebagian besar klien OpenAI bisa langsung dipakai dengan ganti base URL. Lihat juga panduan API GPT-5.5 untuk pola paralel.

Top comments (0)