DeepSeek V4, ilk günden itibaren canlı API ile kullanılabilir durumda. Model kimlikleri deepseek-v4-pro ve deepseek-v4-flash ile OpenAI uyumlu uç noktada (temel URL: https://api.deepseek.com) çalışır. Yani, halihazırda OpenAI gibi bir istemci kullanıyorsanız, sadece temel URL'yi değiştirerek DeepSeek V4'e geçebilirsiniz.
Bu teknik rehberde; kimlik doğrulama, önemli parametreler, Python ve Node istemci örnekleri, düşünme modu kullanımı, araç çağrısı, akışlı yanıtlar ve maliyet kontrolünü Apidog tabanlı bir iş akışı ile adım adım öğreneceksiniz.
Ürün genel bakışı için DeepSeek V4 nedir ve ücretsiz kullanım için DeepSeek V4'ü ücretsiz nasıl kullanırsınız bağlantılarına göz atabilirsiniz.
TL;DR
- DeepSeek V4,
https://api.deepseek.com/v1/chat/completions(OpenAI uyumlu) vehttps://api.deepseek.com/anthropic(Anthropic uyumlu) uç noktalar ile sunulur. - Model Kimlikleri:
deepseek-v4-pro(1.6T toplam, 49B aktif) vedeepseek-v4-flash(284B toplam, 13B aktif). - Her iki model de 1M token bağlamı ve üç düşünme modunu destekler:
non-thinking,thinking,thinking_max. - DeepSeek önerisi:
temperature=1.0, top_p=1.0— GPT-5.5/Claude varsayılanlarını kullanmayın. - Eski
deepseek-chatvedeepseek-reasonerkimlikleri 24 Temmuz 2026'da kaldırılacak; geçişinizi bu tarihten önce yapın. - İstekleri kolayca tekrarlamak, düşünme modlarını karşılaştırmak ve API anahtarınızı terminal geçmişinizden uzak tutmak için Apidog'u indirin.
Önkoşullar
İlk isteğiniz için aşağıdaki adımları tamamlayın:
- En az 2$ bakiye yüklü, platform.deepseek.com üzerinden oluşturulmuş bir DeepSeek geliştirici hesabı.
- Her proje için ayrı API anahtarı (proje kapsamlı anahtarlar önerilir).
- OpenAI uyumlu temel URL'yi destekleyen bir SDK. Python için
openai>=1.30.0, Node içinopenai@4.xdoğrudan çalışır. - Tekrarlanabilir API çağrıları için bir istemci. Curl ilk test için yeterli; seri ve karşılaştırmalı çağrılar için Apidog'u tercih edin.
API anahtarını ortam değişkeni olarak kaydedin:
export DEEPSEEK_API_KEY="sk-..."
Uç Nokta ve Kimlik Doğrulama
İki temel uç nokta:
POST https://api.deepseek.com/v1/chat/completions # OpenAI formatı
POST https://api.deepseek.com/anthropic/v1/messages # Anthropic formatı
Çoğu senaryo için OpenAI uyumlu formatı seçin. Kimlik doğrulama için Authorization başlığına Bearer token ekleyin.
Örnek cURL isteği:
curl https://api.deepseek.com/v1/chat/completions \
-H "Authorization: Bearer $DEEPSEEK_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-v4-pro",
"messages": [
{"role": "user", "content": "MoE yönlendirmesini iki cümlede açıklayın."}
]
}'
Başarılı yanıt; choices dizisi, token kullanımı (usage bloğu) ve izleme için bir id içerir. Hatalar, OpenAI standardında döner (error.code, error.message).
İstek Parametreleri
Aşağıdaki tablo, DeepSeek V4'te kullanabileceğiniz başlıca parametreleri özetler:
| Parametre | Tür | Değerler | Notlar |
|---|---|---|---|
model |
string |
deepseek-v4-pro, deepseek-v4-flash
|
Zorunlu. |
messages |
array | rol/içerik çiftleri | Zorunlu. OpenAI ile aynı şema. |
thinking_mode |
string |
non-thinking, thinking, thinking_max
|
Varsayılan non-thinking. |
temperature |
float | 0 ila 2 | DeepSeek 1.0 öneriyor. |
top_p |
float | 0 ila 1 | DeepSeek 1.0 öneriyor. |
max_tokens |
int | 1 ila 131,072 | Çıkış uzunluğunu sınırlar. |
stream |
bool | doğru veya yanlış | SSE akışını etkinleştirir. |
tools |
array | OpenAI araç belirtimi | Fonksiyon çağrısı için. |
tool_choice |
string veya object |
auto, required, none, veya belirli araç |
Araç kullanımını kontrol eder. |
response_format |
object | {"type": "json_object"} |
JSON modlu çıktı. |
seed |
int | herhangi bir int | Tekrarlanabilirlik için. |
presence_penalty |
float | -2 ila 2 | Tekrarlanan konuları cezalandırır. |
frequency_penalty |
float | -2 ila 2 | Tekrarlanan token'ları cezalandırır. |
-
thinking_mode: Maliyet üzerinde en büyük etkiye sahip parametredir.-
non-thinking: Hızlı, en düşük maliyetli mod. -
thinking: Doğruluk için ek token harcar. -
thinking_max: Maksimum doğruluk, en yüksek maliyet.
-
-
temperaturevetop_p: DeepSeek'in önerdiği şekilde 1.0 kullanın.
Python İstemcisi
openai SDK ile temel URL'yi değiştirerek doğrudan kullanabilirsiniz:
import os
from openai import OpenAI
client = OpenAI(
api_key=os.environ["DEEPSEEK_API_KEY"],
base_url="https://api.deepseek.com/v1",
)
response = client.chat.completions.create(
model="deepseek-v4-pro",
messages=[
{"role": "system", "content": "Sadece kodla yanıt ver."},
{"role": "user", "content": "Olayları debounc eden bir Rust fonksiyonu yaz."},
],
extra_body={"thinking_mode": "thinking"},
temperature=1.0,
top_p=1.0,
max_tokens=2048,
)
choice = response.choices[0]
print("İçerik:", choice.message.content)
print("Akıl yürütme tokenları:", response.usage.reasoning_tokens)
print("Toplam tokenlar:", response.usage.total_tokens)
extra_body, DeepSeek'e özgü parametreleri OpenAI SDK üzerinden iletmek için kullanılır.
Node İstemcisi
Node ekosisteminde de benzer yapı ile ilerleyebilirsiniz:
import OpenAI from "openai";
const client = new OpenAI({
apiKey: process.env.DEEPSEEK_API_KEY,
baseURL: "https://api.deepseek.com/v1",
});
const response = await client.chat.completions.create({
model: "deepseek-v4-flash",
messages: [
{ role: "user", content: "Muon optimizatörünü basit İngilizce ile açıkla." },
],
thinking_mode: "thinking",
temperature: 1.0,
top_p: 1.0,
});
console.log(response.choices[0].message.content);
console.log("Kullanım:", response.usage);
Node SDK, bilinmeyen alanları üst düzeyden kabul eder;
thinking_modedoğrudan geçilebilir.
Yanıtların Akışı
Akışlı yanıt almak için stream: true ayarını kullanın ve gelen SSE parçalarını işleyin:
stream = client.chat.completions.create(
model="deepseek-v4-pro",
messages=[{"role": "user", "content": "MoE hakkında 300 kelimelik bir deneme akışla gönder."}],
stream=True,
extra_body={"thinking_mode": "non-thinking"},
)
for chunk in stream:
delta = chunk.choices[0].delta.content or ""
print(delta, end="", flush=True)
Düşünme modu açıkken, akıl yürütme izleri delta.reasoning_content ile ayrı olarak akışa alınır. Bunları arayüzde gösterebilir veya yoksayabilirsiniz.
Araç Çağrısı
V4, OpenAI araç (function calling) şemasını destekler. tools dizisinde fonksiyon tanımlayıp otomatik çağrıya açabilirsiniz.
tools = [{
"type": "function",
"function": {
"name": "get_weather",
"description": "Bir şehir için mevcut hava durumunu döndürür.",
"parameters": {
"type": "object",
"properties": {
"city": {"type": "string"},
"unit": {"type": "string", "enum": ["c", "f"]},
},
"required": ["city"],
},
},
}]
response = client.chat.completions.create(
model="deepseek-v4-pro",
messages=[{"role": "user", "content": "Lagos'ta hava durumu Celsius cinsinden nedir?"}],
tools=tools,
tool_choice="auto",
extra_body={"thinking_mode": "thinking"},
)
tool_call = response.choices[0].message.tool_calls[0]
print(tool_call.function.name, tool_call.function.arguments)
Fonksiyonu çağırıp sonucu API'ye tekrar gönderebilir, OpenAI pattern'ı ile aynı döngüyü kurabilirsiniz.
JSON Modu
Yapılandırılmış JSON çıktı almak için aşağıdaki gibi kullanın:
response = client.chat.completions.create(
model="deepseek-v4-flash",
messages=[
{"role": "system", "content": "Tek bir JSON nesnesiyle yanıt ver."},
{"role": "user", "content": "Bu sürüm notunu {başlık, tarih, madde işaretleri} olarak özetle: ..."},
],
response_format={"type": "json_object"},
extra_body={"thinking_mode": "non-thinking"},
)
JSON modunda çıktı her zaman geçerli JSON olur. Şema doğrulama gerekiyorsa, istemci tarafında Pydantic veya Zod vb. ile eşleştirin.
Apidog'da Koleksiyon Oluşturun
Terminalden istek göndermek yerine, iş akışınızı görselleştirmek ve karşılaştırmak için şu adımları izleyin:
- Apidog'u indirin ve yeni bir proje açın.
-
{{DEEPSEEK_API_KEY}}için gizli bir ortam değişkeni ekleyin. -
Authorization: Bearer {{DEEPSEEK_API_KEY}}başlığı ile{{BASE_URL}}/chat/completions'a POST isteği oluşturun. -
modelvethinking_modeparametrelerini değiştirerek varyantlar arasında A/B testi yapın. - Her çağrıda
usage.reasoning_tokensdeğerini kontrol ederek fazladan düşünme moduna ödeme yapmadığınızdan emin olun.
Ayrıca, GPT-5.5 API koleksiyonu'nu kopyalayıp temel URL ve model kimliklerini değiştirerek iki platformu yan yana test edebilirsiniz.
Hata Yönetimi
DeepSeek, OpenAI hata zarfını takip eder. Sık karşılaşılan hata kodları ve çözümleri:
| Kod | Anlamı | Çözüm |
|---|---|---|
| 400 | Hatalı istek | JSON şemasını, özellikle messages ve tools'u kontrol edin. |
| 401 | Geçersiz anahtar | platform.deepseek.com adresinde yeniden oluşturun. |
| 402 | Yetersiz bakiye | Hesaba para yükleyin. |
| 403 | Modele izin verilmiyor | Anahtarın kapsamını ve model kimliğinin yazımını kontrol edin. |
| 422 | Parametre aralık dışında |
max_tokens veya thinking_mode muhtemelen uyuşmuyor. |
| 429 | Oran sınırlaması | Geri çekilin, ardından üstel gecikme ile tekrar deneyin. |
| 500 | Sunucu hatası | Bir kez tekrar deneyin; tekrar ederse, durum sayfasını kontrol edin. |
| 503 | Aşırı yüklenmiş | V4-Flash'e geri dönün veya 30 saniye içinde tekrar deneyin. |
429 ve 5xx kodları için çağrılarınızı üstel geri çekilme ile sarmalayın. 4xx kodlarını otomatik yeniden denemeyin.
Maliyet Kontrol Desenleri
Maliyetleri yönetmek için şu pratik desenleri uygulayın:
- Varsayılan olarak V4-Flash kullanın. Yüksek kalite gerektiren istemler için sadece V4-Pro'ya geçin.
-
thinking_max'i bayrak arkasına alın. En pahalı moddur; sadece gerekliyse açın. -
max_tokens'ı sınırlandırın. Çoğu çıktı için 2.000 token yeterli. -
Her çağrıda
usage'ı loglayın. Token tüketimini gözlemleyerek beklenmeyen maliyet artışlarını yakalayın.
Eski DeepSeek Modellerinden Geçiş
deepseek-chat ve deepseek-reasoner kimlikleri 24 Temmuz 2026'da kaldırılacak. Geçiş yapmak için sadece model adını değiştirin:
- model="deepseek-chat"
+ model="deepseek-v4-pro"
Üretim geçişinden önce Apidog ile yan yana A/B testi yaparak kalite farkını gözlemleyin.
SSS
DeepSeek V4 API üretime hazır mı?
Evet. API 23 Nisan 2026'da ağırlıklarla birlikte açıldı; altyapı olgun.
V4, Anthropic formatını destekliyor mu?
Evet, https://api.deepseek.com/anthropic/v1/messages ile kullanılabilir.
Bağlam penceresi nedir?
Her iki modelde de 1 milyon token. Think Max için minimum öneri 384K token.
Girdi tokenlarını nasıl sayarım?
Yaklaşık değer için OpenAI tokenlaştırıcı; tam sayı için yanıtın usage bloğu.
API ile ince ayar yapılabiliyor mu?
Lansmanda hayır; sadece kendi barındırılan checkpoint'ler üzerinden (Hugging Face).
API ücretsiz mi?
Ücretsiz katman yok, ancak yeni hesaplar bazen deneme kredisi alabilir.


Top comments (0)