DeepSeek, 23 Nisan 2026'da V4 sürümünü piyasaya sürdü. Bu, küçük bir güncelleme değil; Hangzhou laboratuvarı aynı anda dört kontrol noktası yayınladı. V4-Pro modeli toplamda 1.6 trilyon parametre, MIT lisansı ve 1 milyon tokenlık bağlam penceresiyle öne çıkıyor. Daha kompakt DeepSeek-V4-Flash ise 284 milyar parametreye sahip. Kıyaslama testlerinde, Pro varyantı LiveCodeBench ve Codeforces'ta Claude Opus 4.6'nın önünde, MMLU-Pro'da ise GPT-5.4 xHigh'a yakın konumda.
Eğer Claude, GPT-5.5 veya Qwen'den DeepSeek V4'e geçmeyi düşünüyorsanız, bu rehberde modelin teknik detaylarını, V3.2'den gelen değişiklikleri, performans mimarisini ve dağıtım seçeneklerini pratik olarak bulacaksınız.
Uygulamalı geliştirici rehberleri için DeepSeek V4 API rehberi, ücretsiz erişim rehberi ve tam kullanım rehberini sunuyoruz. API isteği formatı OpenAI ile tam uyumlu; anahtarı almadan önce Apidog üzerinde koleksiyon oluşturabilirsiniz.
ÖZET
- DeepSeek V4, 23 Nisan 2026'da MIT lisansı ile yayınlanan bir Mixture-of-Experts (MoE) ailesidir.
- Dört kontrol noktası: V4-Pro, V4-Pro-Base, V4-Flash, V4-Flash-Base.
- V4-Pro: 1.6T toplam, 49B aktif parametre. V4-Flash: 284B toplam, 13B aktif parametre.
- Her ikisi de 1M token bağlam penceresi ve üç muhakeme modu sunar: Non-Think, Think High, Think Max.
- Başlıca skorlar: LiveCodeBench 93.5, Codeforces 3206, MMLU-Pro 87.5 (Pro için).
- API,
api.deepseek.comadresindedeepseek-v4-provedeepseek-v4-flashmodel ID'leriyle hemen kullanılabilir; ağırlıklar Hugging Face ve ModelScope üzerinde.
DeepSeek V4 aslında nedir?
DeepSeek V4, V3 ve V3.2'nin halefi, MoE mimarisi ile geliyor. V4-Pro, 1.6T parametresinin sadece 49B'sini token başına aktif ediyor; hesaplama maliyeti 50B yoğun modele yakın. Teknik raporu DeepSeek V4 model kartında bulabilirsiniz.
Lansmandaki dört kontrol noktası:
- DeepSeek-V4-Pro: 1.6T toplam, 49B aktif, 1M bağlam. API üzerinden çağrılacak ana model.
- DeepSeek-V4-Pro-Base: Sadece önceden eğitilmiş. Araştırma ve özel fine-tune için.
- DeepSeek-V4-Flash: 284B toplam, 13B aktif, aynı 1M bağlam. Düşük gecikmeli ve daha küçük donanım için uygun.
- DeepSeek-V4-Flash-Base: Flash için temel checkpoint.
Hepsi MIT lisansı ile açık; kendi donanımınızda dağıtabilir, fine-tune yapabilir ve ürününüzde kullanabilirsiniz. GPT-5.5 ve Claude Opus kapalı kaynaklı ve önemli lisans ücretlerine sahipken, DeepSeek V4 açık ağırlıklı.
V3.2'den neler değişti?
V3 kodlama ve muhakemede zaten güçlüydü. V4, uzun bağlam ve verimlilik için dikkat katmanını ve eğitim pipeline'ını yeniledi.
| Yetkinlik | V3.2 | V4-Pro |
|---|---|---|
| Toplam parametre | 685B | 1.6T |
| Aktif parametreler | 37B | 49B |
| Bağlam penceresi | 128K | 1M |
| Çıkarım FLOP'ları | temel | %27 |
| KV önbelleği | temel | %10 |
| Hassasiyet | FP8 | FP4 + FP8 |
| Lisans | DeepSeek | MIT |
| Muhakeme modları | tek | üç |
Ana iyileştirmeler:
- Hibrit dikkat katmanı: Compressed Sparse Attention + Heavily Compressed Attention kombinasyonu ile %10 KV cache.
- Manifold Kısıtlı Hiper Bağlantılar: Daha derin modellerde gradyan stabilitesi.
- Muon optimizer: AdamW yerine daha hızlı yakınsama ve büyük gradyan normlarının yönetimi.
Eğitim veri seti 32T tokenı aştı. Fine-tune pipeline'ı iki aşamalı: önce alan uzmanı, sonra policy distillation.
Önemli kıyaslama testleri
DeepSeek'in verileri, V4-Pro'nun kodlama ve bilgi görevlerinde önde olduğunu gösteriyor.
V4-Flash için: MMLU-Pro 86.2, GPQA Diamond 88.1, LiveCodeBench 91.6, Codeforces 3052, SWE Verified 79.0. 13B aktif parametreli bir model için bu rakamlar, kendi donanımında dağıtmak isteyenler için ideal. Ayrıntılar için DeepSeek V4-Flash kartına bakabilirsiniz.
Değerlendirme: V4-Pro kodlamada ve olgusal hatırlamada önde, genel bilgi açısından Gemini 3.1 Pro'nun gerisinde, uzun bağlam erişiminde ise Claude Opus'un altında. Kodlama/analiz ağırlıklı işler için V4-Pro'yu test edin; çok uzun belge arama yükünüz varsa Claude daha iyi.
Üç muhakeme modu
Her V4 modeli üç farklı muhakeme modu sunar:
- Non-Think: Hızlı, tek geçişli üretim. Kısa yanıt, sınıflandırma, özet gibi işler için.
- Think High: Zor görevler için varsayılan. Model, cevaptan önce reasoning tokenları ekler, araç çağrılarını planlar.
- Think Max: En üst düzey. Uzun reasoning izleri, yüksek maliyet. 384K+ token bağlam önerilir. En yüksek skorlar bu modda alınır.
API'da thinking_mode parametresiyle veya çıkarım betiğinde ayar yaparak seçebilirsiniz. Tüm modlar için önerilen sampling: temperature=1.0, top_p=1.0.
Mimari açık bir dille
Üç temel teknik seçim, verimliliğin anahtarı:
- Hibrit dikkat: Çoğu katmanda Compressed Sparse Attention; bazı katmanlarda Heavily Compressed Attention. 1M tokende %27 FLOP ve %10 KV cache.
- Manifold Kısıtlı Hiper Bağlantılar: Katmanlar arası stabilite, daha fazla derinlik.
- Muon optimizer: AdamW yerine daha iyi yakınsama ve büyük gradyan yönetimi.
Bu tekniklerin birleşimi, trilyon parametre ölçeğinde MoE modelini sorunsuz eğitilebilir kılıyor.
Bugünkü erişilebilirlik
| Platform | Erişim Açıklaması |
|---|---|
| chat.deepseek.com | Ücretsiz web sohbeti, V4-Pro varsayılan, oturum açma gerekli |
| DeepSeek API |
api.deepseek.com adresinde, modeller: deepseek-v4-pro, deepseek-v4-flash
|
| Hugging Face | V4-Pro, V4-Flash |
| ModelScope | Çin kullanıcıları için yansıtılmış ağırlıklar |
| OpenRouter/toplayıcılar | Birkaç gün içinde desteklenecek |
deepseek-chat / deepseek-reasoner
|
24 Temmuz 2026'da kullanımdan kaldırılacak |
deepseek-chat üretimda ise, üç ay içinde deepseek-v4-pro veya deepseek-v4-flash'e geçiş yapmalısınız.
GPT-5.5 ve Claude ile nasıl karşılaştırılır?
Kritik karşılaştırma noktaları:
- Maliyet: V4-Pro ve V4-Flash açık ağırlıklı. Kendi altyapınızda barındırabiliyorsanız ciddi ölçeklerde birim maliyet avantajı sağlar.
- Kodlama: V4-Pro, LiveCodeBench ve Codeforces'ta GPT-5.5 ve Claude Opus'tan daha yüksek skorlar sunuyor.
- Bilgi genişliği: Gemini 3.1 Pro hala MMLU-Pro'da önde (91.0). V4-Pro ve GPT-5.5 87.5 ile eşit.
- Uzun bağlam: 1M token erişiminde Claude Opus önde. Uzun belge arama işlerinde Claude daha avantajlı.
- Lisans: MIT lisansı ile V4-Pro, ürün içinde sınırsız dağıtım olanağı sunar.
Onunla ne inşa etmeli?
V4'ün güçlü olduğu iş yükleri:
- Ajan tabanlı kodlama döngüleri: SWE Verified/Codeforces skorları ile çoklu dosya hata ayıklama ve repo düzeyinde otomasyon için ideal. API çağrılarını Apidog ile test edin.
- Uzun belgeler üzerinde muhakeme: 1M token bağlam ile monorepo, sözleşme ve veri seti analizleri. Think High modunu kullanın.
- Kendi kendine barındırılan yapay zeka ürünleri: Uygunluk gerektiren sektörlerde V4-Flash, açık ağırlıklı olarak API kalitesine yakın.
- Araştırma ve ince ayar: Base checkpoint'ler, özel veri setinizle SFT için hazır.
Uygun olmayan işler: Yüksek hacimli sınıflandırma, embedding veya kısa sohbet. Bunlar için daha eski modeller daha verimli.
Tek satırda fiyatlandırma
DeepSeek henüz kesin fiyatı açıklamadı. V3.2 yaklaşık milyon giriş tokenı başına $0.28, çıkış tokenı başına $0.42 idi. V4-Flash aynı aralıkta, V4-Pro biraz daha pahalı olabilir. Rakipler (GPT-5.5, Claude) ise $5–15 aralığında. Güncel fiyatlar için DeepSeek fiyatlandırma sayfasını takip edin.
V4'ü bugün nasıl test edebilirsiniz?
İlk tokena ulaşma hızına göre sıralı üç yol:
- Web sohbeti: chat.deepseek.com adresinde oturum açın, V4-Pro varsayılan. Think High moduna geçin. Ücretsiz, anında erişim.
-
API: Anahtar alın, istemcinizi
https://api.deepseek.com'a yönlendirin,"model": "deepseek-v4-pro"ile istek atın. OpenAI uyumlu format sayesinde mevcut istemcilerle çalışır. DeepSeek V4 API rehberi'ni inceleyin. -
Yerel ağırlıklar: Hugging Face veya ModelScope'dan indirin. V4-Flash için 2–4 H100 GPU yeterli; V4-Pro için daha büyük bir küme gerekir. Çıkarım kodu model deposunun
/inferenceklasöründe.
Daha fazla uygulamalı örnek için DeepSeek V4 nasıl kullanılır ve DeepSeek V4 ücretsiz kullanım rehberi'ne bakabilirsiniz. Apidog'u indirin ve koleksiyonunuzu önceden oluşturun; OpenAI formatı sayesinde aynı istekle çoklu API test edebilirsiniz.
Sıkça Sorulan Sorular
DeepSeek V4 gerçekten açık kaynaklı mı?
Evet. Dört kontrol noktası da MIT lisansı ile tamamen açık; ticari kullanım, değiştirme, yeniden dağıtım serbesttir.
V4-Flash'i çalıştırmak için GPU kümesi gerekir mi?
Tam hassasiyette 2–4 H100/H200 GPU gerekir (quantize ile daha az). V4-Pro için büyük bir küme şart. Donanımınız yoksa API veya chat.deepseek.com ile deneyebilirsiniz.
V4, DeepSeek API'da ne zaman kullanılabilir oldu?
23 Nisan 2026 itibarıyla aktif. Model ID'leri: deepseek-v4-pro, deepseek-v4-flash. Eski deepseek-chat ve deepseek-reasoner 24 Temmuz 2026'da devre dışı olacak.
V4, Kimi ve Qwen ile nasıl karşılaştırılır?
DeepSeek verilerine göre V4-Pro, Kimi K2 ve Qwen 3 Max’ten daha yüksek LiveCodeBench ve Codeforces skorlarına sahip. Üçü de MoE ve açık ağırlıklı; iş yükünüze en uygun kıyaslamayı seçin.
V4'ü kendi verilerimle fine-tune edebilir miyim?
Evet. Base checkpoint'ler fine-tune için hazır. MIT lisansı, ticari dağıtım için de geçerli.
V4, mevcut OpenAI uyumlu araçlarla çalışır mı?
Evet. API, OpenAI ve Anthropic formatında istekleri kabul eder. Mevcut OpenAI istemcinizle sadece temel URL'yi değiştirerek kullanabilirsiniz. Paralel kullanım için ilgili GPT-5.5 API rehberi'ni inceleyin.



Top comments (0)