DeepSeek V4, 23 Nisan 2026'da dört kontrol noktası, canlı bir API ve Hugging Face'de MIT lisanslı ağırlıklarla yayınlandı. Bu kombinasyon, onu kullanmanın tek bir "doğru yolu" olmadığı anlamına geliyor; en iyi yol, anında erişim, üretim API çağrıları veya şirket içi dağıtım isteyip istemediğinize bağlıdır. Bu kılavuz, her üçünü de ödünleşimleri, püf noktaları ve yeniden kullanabileceğiniz üretime hazır bir prompt iş akışıyla birlikte anlatmaktadır.
Sadece ürün seviyesi genel bir bakış istiyorsanız, önce DeepSeek V4 nedir yazısını okuyun. Sadece API kullanımına ilişkin ayrıntılı bilgi için DeepSeek V4 API kılavuzuna bakın. Sıfır maliyetli yol için DeepSeek V4'ü ücretsiz olarak nasıl kullanacağınıza bakın. Gerçek istekleri test etmeye hazır olduğunuzda Apidog'u edinin ve koleksiyonu önceden oluşturun.
TL;DR
- En hızlı yol: chat.deepseek.com. Ücretsiz web sohbeti, varsayılan olarak V4-Pro, üç düşünme modu.
- Üretim yolu:
https://api.deepseek.com/v1/chat/completions, model ID'lerideepseek-v4-proveyadeepseek-v4-flashile. - Kendi kendine barındırılan yol: Hugging Face'den ağırlıkları çekin, repodaki
/inferencekomut dosyalarını çalıştırın. - Yönlendirme ve sınıflandırma için Non-Think'i, kod ve analiz için Think High'ı, maliyetten ziyade doğruluk önemli olduğunda ise sadece Think Max'i seçin.
- DeepSeek'ten örnekleme önerisi:
temperature=1.0, top_p=1.0. Buna tekrar şüpheyle yaklaşmayın. - API istemcisi olarak Apidog'u kullanın; OpenAI uyumlu format, kaydedilen bir isteğin DeepSeek, OpenAI ve Anthropic'te tekrar oynatılması anlamına gelir.
İş Yükünüz İçin Doğru Yolu Seçin
Dört pratik yol var. Her birinin öne çıktığı farklı kullanım alanları mevcut:
| Yol | Maliyet | Kurulum süresi | En iyisi |
|---|---|---|---|
| chat.deepseek.com | Ücretsiz | 30 saniye | Hızlı testler, geçici işler |
| DeepSeek API | Token başına ücretlendirme | 5 dakika | Üretim, ajanlar, toplu işler |
| Kendi kendine barındırılan V4-Flash | Yalnızca donanım maliyeti | Birkaç saat | Şirket içi uyumluluk, çevrimdışı çıkarım |
| Kendi kendine barındırılan V4-Pro | Yalnızca küme maliyeti | Bir gün | Araştırma, özel ince ayarlar |
| OpenRouter / toplayıcı | Token başına ücretlendirme | 2 dakika | Çoklu sağlayıcı yedeklemesi |
Yol 1: V4'ü Web Sohbetinde Kullanın
En hızlı başlama yolu resmi sohbet arayüzüdür:
- chat.deepseek.com adresine gidin.
- E-posta, Google veya WeChat ile oturum açın.
- V4-Pro varsayılan modeldir. Üstteki anahtardan Non-Think, Think High ve Think Max modunu seçebilirsiniz.
- Prompt'unuzu yazmaya başlayın.
Web sohbeti üzerinden dosya yükleyebilir, web araması yapabilir ve 1M token bağlam desteğinden yararlanabilirsiniz. Hesap bazlı hız limiti uygulanır; yoğun kullanımda yanıtlar yavaşlayabilir fakat genelde bloklanmaz.
Web arayüzü için tipik işler: hata izi teşhisi, uzun PDF özetleme, farklı modellerle prompt karşılaştırması. Kötü kullanım: otomatikleştirilmiş veya tekrar oynatılması gereken işler.
Yol 2: DeepSeek API'sini Kullanın
Üretim ve otomasyon için en pratik yöntem budur. API, OpenAI formatı ile tamamen uyumlu.
API Anahtarı Alın
- platform.deepseek.com adresinden kaydolun.
- Bir ödeme yöntemi ekleyin (minimum 2 dolar yükleme).
- API Anahtarları altında yeni bir anahtar oluşturun ve gizli anahtarı saklayın.
Anahtarı terminal ortamına ekleyin:
export DEEPSEEK_API_KEY="sk-..."
Minimum Uygulanabilir API Çağrısı
curl https://api.deepseek.com/v1/chat/completions \
-H "Authorization: Bearer $DEEPSEEK_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-v4-pro",
"messages": [
{"role": "user", "content": "Bu Python fonksiyonunu eşzamansız olarak yeniden düzenleyin. Sadece kodla yanıtlayın."}
],
"thinking_mode": "thinking"
}'
Daha uygun maliyetli bir cevap için deepseek-v4-pro yerine deepseek-v4-flash kullanın. Düşünme modunu hız için non-thinking olarak ayarlayın.
Python İstemcisi ile Kullanım
import os
from openai import OpenAI
client = OpenAI(
api_key=os.environ["DEEPSEEK_API_KEY"],
base_url="https://api.deepseek.com/v1",
)
response = client.chat.completions.create(
model="deepseek-v4-pro",
messages=[
{"role": "system", "content": "Sen özlü bir kıdemli mühendissin."},
{"role": "user", "content": "CSA+HCA hibrit dikkat yığınını açıklayın."},
],
extra_body={"thinking_mode": "thinking_max"},
temperature=1.0,
top_p=1.0,
)
print(response.choices[0].message.content)
Node.js İstemcisi ile Kullanım
import OpenAI from "openai";
const client = new OpenAI({
apiKey: process.env.DEEPSEEK_API_KEY,
baseURL: "https://api.deepseek.com/v1",
});
const response = await client.chat.completions.create({
model: "deepseek-v4-flash",
messages: [{ role: "user", content: "Rust'ta bir fizzbuzz yaz." }],
temperature: 1.0,
top_p: 1.0,
});
console.log(response.choices[0].message.content);
Tüm endpoint ve parametre detayları ile hata yönetimi için DeepSeek V4 API kılavuzunu inceleyin.
Yol 3: Apidog ile Otomatikleştirin ve Tekrar Oynatın
Curl ile bir-iki deneme kolaydır; ancak tekrar eden denemeler için Apidog ile çok daha verimli çalışırsınız.
- Mac, Windows veya Linux için Apidog'u indirin.
- Yeni bir API projesi oluşturun,
https://api.deepseek.com/v1/chat/completionsadresine POST isteği ekleyin. -
Authorization: Bearer {{DEEPSEEK_API_KEY}}başlığı ekleyin, anahtarı ortam değişkeni olarak saklayın. - İlk JSON gövdesini yapıştırıp kaydedin. Her değişiklikten sonra tek tıkla tekrar oynatabilirsiniz.
- Yanıtları karşılaştırmak için yerleşik viewer'ı kullanın, özellikle Non-Think ve Think Max varyantlarının çıktısını gözlemleyin.
Aynı koleksiyonla OpenAI GPT-5.5, Claude ve DeepSeek V4 isteklerini yan yana test edebilirsiniz. Bu, sağlayıcılar arası A/B testini kolaylaştırır ve faturalama görünürlüğü sağlar. Var olan GPT-5.5 koleksiyonunu temel URL değiştirerek V4 koleksiyonu haline getirmek mümkündür.
Yol 4: V4-Flash'i Kendi Kendine Barındır
Şirket içi uyumluluk, hava boşluğu veya maliyet gerekçeleriyle kendi sunucunuzda çalıştırmak için MIT lisanslı ağırlıkları kullanabilirsiniz.
Donanım Gereksinimleri
- V4-Flash (13B aktif, toplam 284B): FP8 için 2-4 H100/H200/MI300X kart, INT4 nicemlemede tek bir 80GB kartta sıkı batch ile çalışır.
- V4-Pro (49B aktif, toplam 1.6T): 16-32 H100 gerektirir.
Model Ağırlıklarını İndirin
pip install -U "huggingface_hub[cli]"
huggingface-cli login # Gerekirse
huggingface-cli download deepseek-ai/DeepSeek-V4-Flash \
--local-dir ./models/deepseek-v4-flash \
--local-dir-use-symlinks False
V4-Flash FP8 ~500GB; V4-Pro ise birkaç TB büyüklüğünde olabilir.
Çıkarım Sunucusunu Başlatın
pip install "vllm>=0.9.0"
vllm serve deepseek-ai/DeepSeek-V4-Flash \
--tensor-parallel-size 4 \
--max-model-len 1048576 \
--dtype auto
vLLM çalıştıktan sonra, OpenAI uyumlu herhangi bir istemciyi http://localhost:8000/v1 adresine yönlendirin. Apidog koleksiyonunu da bu şekilde kullanabilirsiniz.
V4’ü Etkili Yönlendirme (Prompting)
Pratik prompt yazımı için:
-
Düşünme modunu her zaman açıkça belirtin.
thinking_modeparametresini göreve göre ayarlayın. - Sistem mesajlarını sadece kişilik ve ton için kullanın. Görev tanımını kullanıcı mesajında belirtin.
- Kod görevlerinde test vaka(ları) ekleyin. Başarısız bir testi ekleyin, modelin daha doğru kod üretme ihtimali artar.
Uzun bağlamlarda, önemli bilgileri prompt'un başı ve sonuna yakın tutmaya çalışın.
Maliyet Kontrolü
- Varsayılan olarak V4-Flash kullanın. V4-Pro'ya yalnızca kalite farkı ölçüldüğünde geçin.
- Varsayılan olarak Non-Think kullanın. Sadece gerektiğinde Think High veya Think Max’a yükseltin.
-
max_tokenssınırı belirleyin. Çoğu yanıt için 2.000 token yeterlidir.
Apidog ortam değişkenlerini kullanarak test ve prod anahtarlarını ayırabilirsiniz. Apidog yanıt token sayılarını da gösterir; bu sayede uzun prompt'ları hızlıca tespit edebilirsiniz.
DeepSeek V3 veya Diğer Modellerden Geçiş
-
deepseek-chat/deepseek-reasoner’dan geçiş: Model ID’sinideepseek-v4-proveyadeepseek-v4-flashile değiştirin. -
OpenAI GPT-5.x'ten geçiş: Temel URL’yi
https://api.deepseek.com/v1olarak değiştirin, model ID’sini güncelleyin. -
Anthropic Claude’dan geçiş:
https://api.deepseek.com/anthropicendpoint’i veya OpenAI formatını kullanın.
SSS
V4'ü kullanmak için ücretli hesap gerekir mi? Web sohbeti ücretsizdir. API için minimum 2 dolar yükleme gerekir. Ücretsiz kullanım yolları için DeepSeek V4'ü ücretsiz olarak nasıl kullanacağınıza bakın.
Varsayılan olarak hangi varyantı kullanmalıyım? V4-Flash ve Non-Think mod ile başlayın. Kaliteyi ölçüp gerekiyorsa yükseltin.
V4'ü MacBook'ta çalıştırabilir miyim? V4-Flash, 128GB RAM'li M3 Max/M4 Max ile ağır nicemleme altında yavaşça çalışabilir. V4-Pro dizüstünde çalışmaz. Dizüstü için API veya web sohbetini kullanın.
V4 araç kullanımı/fonksiyon çağırmayı destekliyor mu? Evet. OpenAI uyumlu endpoint tools dizisini kabul eder, yanıtlar tool_calls ile gelir. Anthropic endpoint'i de destekler.
Yanıtları nasıl akış yapabilirim? İstek gövdesinde stream: true ayarlayın. Yanıt, OpenAI uyumlu SSE akışıdır.
API hız limiti var mı? Barındırılan API limitleri api-docs.deepseek.com'da yayınlanır. Kendi barındırılan modelde donanımınız dışında ek limit yoktur.


Top comments (0)