DEV Community

Cover image for DeepSeek V4 API Nasıl Kullanılır?
Tobias Hoffmann
Tobias Hoffmann

Posted on • Originally published at apidog.com

DeepSeek V4 API Nasıl Kullanılır?

DeepSeek V4, ilk günden itibaren canlı API ile kullanılabilir durumda. Model kimlikleri deepseek-v4-pro ve deepseek-v4-flash ile OpenAI uyumlu uç noktada (temel URL: https://api.deepseek.com) çalışır. Yani, halihazırda OpenAI gibi bir istemci kullanıyorsanız, sadece temel URL'yi değiştirerek DeepSeek V4'e geçebilirsiniz.

Apidog'u bugün deneyin

Bu teknik rehberde; kimlik doğrulama, önemli parametreler, Python ve Node istemci örnekleri, düşünme modu kullanımı, araç çağrısı, akışlı yanıtlar ve maliyet kontrolünü Apidog tabanlı bir iş akışı ile adım adım öğreneceksiniz.

Ürün genel bakışı için DeepSeek V4 nedir ve ücretsiz kullanım için DeepSeek V4'ü ücretsiz nasıl kullanırsınız bağlantılarına göz atabilirsiniz.

TL;DR

  • DeepSeek V4, https://api.deepseek.com/v1/chat/completions (OpenAI uyumlu) ve https://api.deepseek.com/anthropic (Anthropic uyumlu) uç noktalar ile sunulur.
  • Model Kimlikleri: deepseek-v4-pro (1.6T toplam, 49B aktif) ve deepseek-v4-flash (284B toplam, 13B aktif).
  • Her iki model de 1M token bağlamı ve üç düşünme modunu destekler: non-thinking, thinking, thinking_max.
  • DeepSeek önerisi: temperature=1.0, top_p=1.0 — GPT-5.5/Claude varsayılanlarını kullanmayın.
  • Eski deepseek-chat ve deepseek-reasoner kimlikleri 24 Temmuz 2026'da kaldırılacak; geçişinizi bu tarihten önce yapın.
  • İstekleri kolayca tekrarlamak, düşünme modlarını karşılaştırmak ve API anahtarınızı terminal geçmişinizden uzak tutmak için Apidog'u indirin.

Önkoşullar

İlk isteğiniz için aşağıdaki adımları tamamlayın:

  1. En az 2$ bakiye yüklü, platform.deepseek.com üzerinden oluşturulmuş bir DeepSeek geliştirici hesabı.
  2. Her proje için ayrı API anahtarı (proje kapsamlı anahtarlar önerilir).
  3. OpenAI uyumlu temel URL'yi destekleyen bir SDK. Python için openai>=1.30.0, Node için openai@4.x doğrudan çalışır.
  4. Tekrarlanabilir API çağrıları için bir istemci. Curl ilk test için yeterli; seri ve karşılaştırmalı çağrılar için Apidog'u tercih edin.

API anahtarını ortam değişkeni olarak kaydedin:

export DEEPSEEK_API_KEY="sk-..."
Enter fullscreen mode Exit fullscreen mode

Uç Nokta ve Kimlik Doğrulama

İki temel uç nokta:

POST https://api.deepseek.com/v1/chat/completions    # OpenAI formatı
POST https://api.deepseek.com/anthropic/v1/messages  # Anthropic formatı
Enter fullscreen mode Exit fullscreen mode

Çoğu senaryo için OpenAI uyumlu formatı seçin. Kimlik doğrulama için Authorization başlığına Bearer token ekleyin.

Örnek cURL isteği:

curl https://api.deepseek.com/v1/chat/completions \
  -H "Authorization: Bearer $DEEPSEEK_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "deepseek-v4-pro",
    "messages": [
      {"role": "user", "content": "MoE yönlendirmesini iki cümlede açıklayın."}
    ]
  }'
Enter fullscreen mode Exit fullscreen mode

Başarılı yanıt; choices dizisi, token kullanımı (usage bloğu) ve izleme için bir id içerir. Hatalar, OpenAI standardında döner (error.code, error.message).

İstek Parametreleri

Aşağıdaki tablo, DeepSeek V4'te kullanabileceğiniz başlıca parametreleri özetler:

Parametre Tür Değerler Notlar
model string deepseek-v4-pro, deepseek-v4-flash Zorunlu.
messages array rol/içerik çiftleri Zorunlu. OpenAI ile aynı şema.
thinking_mode string non-thinking, thinking, thinking_max Varsayılan non-thinking.
temperature float 0 ila 2 DeepSeek 1.0 öneriyor.
top_p float 0 ila 1 DeepSeek 1.0 öneriyor.
max_tokens int 1 ila 131,072 Çıkış uzunluğunu sınırlar.
stream bool doğru veya yanlış SSE akışını etkinleştirir.
tools array OpenAI araç belirtimi Fonksiyon çağrısı için.
tool_choice string veya object auto, required, none, veya belirli araç Araç kullanımını kontrol eder.
response_format object {"type": "json_object"} JSON modlu çıktı.
seed int herhangi bir int Tekrarlanabilirlik için.
presence_penalty float -2 ila 2 Tekrarlanan konuları cezalandırır.
frequency_penalty float -2 ila 2 Tekrarlanan token'ları cezalandırır.
  • thinking_mode: Maliyet üzerinde en büyük etkiye sahip parametredir.
    • non-thinking: Hızlı, en düşük maliyetli mod.
    • thinking: Doğruluk için ek token harcar.
    • thinking_max: Maksimum doğruluk, en yüksek maliyet.
  • temperature ve top_p: DeepSeek'in önerdiği şekilde 1.0 kullanın.

Python İstemcisi

openai SDK ile temel URL'yi değiştirerek doğrudan kullanabilirsiniz:

import os
from openai import OpenAI

client = OpenAI(
    api_key=os.environ["DEEPSEEK_API_KEY"],
    base_url="https://api.deepseek.com/v1",
)

response = client.chat.completions.create(
    model="deepseek-v4-pro",
    messages=[
        {"role": "system", "content": "Sadece kodla yanıt ver."},
        {"role": "user", "content": "Olayları debounc eden bir Rust fonksiyonu yaz."},
    ],
    extra_body={"thinking_mode": "thinking"},
    temperature=1.0,
    top_p=1.0,
    max_tokens=2048,
)

choice = response.choices[0]
print("İçerik:", choice.message.content)
print("Akıl yürütme tokenları:", response.usage.reasoning_tokens)
print("Toplam tokenlar:", response.usage.total_tokens)
Enter fullscreen mode Exit fullscreen mode

extra_body, DeepSeek'e özgü parametreleri OpenAI SDK üzerinden iletmek için kullanılır.

Node İstemcisi

Node ekosisteminde de benzer yapı ile ilerleyebilirsiniz:

import OpenAI from "openai";

const client = new OpenAI({
  apiKey: process.env.DEEPSEEK_API_KEY,
  baseURL: "https://api.deepseek.com/v1",
});

const response = await client.chat.completions.create({
  model: "deepseek-v4-flash",
  messages: [
    { role: "user", content: "Muon optimizatörünü basit İngilizce ile açıkla." },
  ],
  thinking_mode: "thinking",
  temperature: 1.0,
  top_p: 1.0,
});

console.log(response.choices[0].message.content);
console.log("Kullanım:", response.usage);
Enter fullscreen mode Exit fullscreen mode

Node SDK, bilinmeyen alanları üst düzeyden kabul eder; thinking_mode doğrudan geçilebilir.

Yanıtların Akışı

Akışlı yanıt almak için stream: true ayarını kullanın ve gelen SSE parçalarını işleyin:

stream = client.chat.completions.create(
    model="deepseek-v4-pro",
    messages=[{"role": "user", "content": "MoE hakkında 300 kelimelik bir deneme akışla gönder."}],
    stream=True,
    extra_body={"thinking_mode": "non-thinking"},
)

for chunk in stream:
    delta = chunk.choices[0].delta.content or ""
    print(delta, end="", flush=True)
Enter fullscreen mode Exit fullscreen mode

Düşünme modu açıkken, akıl yürütme izleri delta.reasoning_content ile ayrı olarak akışa alınır. Bunları arayüzde gösterebilir veya yoksayabilirsiniz.

Araç Çağrısı

V4, OpenAI araç (function calling) şemasını destekler. tools dizisinde fonksiyon tanımlayıp otomatik çağrıya açabilirsiniz.

tools = [{
    "type": "function",
    "function": {
        "name": "get_weather",
        "description": "Bir şehir için mevcut hava durumunu döndürür.",
        "parameters": {
            "type": "object",
            "properties": {
                "city": {"type": "string"},
                "unit": {"type": "string", "enum": ["c", "f"]},
            },
            "required": ["city"],
        },
    },
}]

response = client.chat.completions.create(
    model="deepseek-v4-pro",
    messages=[{"role": "user", "content": "Lagos'ta hava durumu Celsius cinsinden nedir?"}],
    tools=tools,
    tool_choice="auto",
    extra_body={"thinking_mode": "thinking"},
)

tool_call = response.choices[0].message.tool_calls[0]
print(tool_call.function.name, tool_call.function.arguments)
Enter fullscreen mode Exit fullscreen mode

Fonksiyonu çağırıp sonucu API'ye tekrar gönderebilir, OpenAI pattern'ı ile aynı döngüyü kurabilirsiniz.

JSON Modu

Yapılandırılmış JSON çıktı almak için aşağıdaki gibi kullanın:

response = client.chat.completions.create(
    model="deepseek-v4-flash",
    messages=[
        {"role": "system", "content": "Tek bir JSON nesnesiyle yanıt ver."},
        {"role": "user", "content": "Bu sürüm notunu {başlık, tarih, madde işaretleri} olarak özetle: ..."},
    ],
    response_format={"type": "json_object"},
    extra_body={"thinking_mode": "non-thinking"},
)
Enter fullscreen mode Exit fullscreen mode

JSON modunda çıktı her zaman geçerli JSON olur. Şema doğrulama gerekiyorsa, istemci tarafında Pydantic veya Zod vb. ile eşleştirin.

Apidog'da Koleksiyon Oluşturun

Terminalden istek göndermek yerine, iş akışınızı görselleştirmek ve karşılaştırmak için şu adımları izleyin:

  1. Apidog'u indirin ve yeni bir proje açın.
  2. {{DEEPSEEK_API_KEY}} için gizli bir ortam değişkeni ekleyin.
  3. Authorization: Bearer {{DEEPSEEK_API_KEY}} başlığı ile {{BASE_URL}}/chat/completions'a POST isteği oluşturun.
  4. model ve thinking_mode parametrelerini değiştirerek varyantlar arasında A/B testi yapın.
  5. Her çağrıda usage.reasoning_tokens değerini kontrol ederek fazladan düşünme moduna ödeme yapmadığınızdan emin olun.

Ayrıca, GPT-5.5 API koleksiyonu'nu kopyalayıp temel URL ve model kimliklerini değiştirerek iki platformu yan yana test edebilirsiniz.

Hata Yönetimi

DeepSeek, OpenAI hata zarfını takip eder. Sık karşılaşılan hata kodları ve çözümleri:

Kod Anlamı Çözüm
400 Hatalı istek JSON şemasını, özellikle messages ve tools'u kontrol edin.
401 Geçersiz anahtar platform.deepseek.com adresinde yeniden oluşturun.
402 Yetersiz bakiye Hesaba para yükleyin.
403 Modele izin verilmiyor Anahtarın kapsamını ve model kimliğinin yazımını kontrol edin.
422 Parametre aralık dışında max_tokens veya thinking_mode muhtemelen uyuşmuyor.
429 Oran sınırlaması Geri çekilin, ardından üstel gecikme ile tekrar deneyin.
500 Sunucu hatası Bir kez tekrar deneyin; tekrar ederse, durum sayfasını kontrol edin.
503 Aşırı yüklenmiş V4-Flash'e geri dönün veya 30 saniye içinde tekrar deneyin.

429 ve 5xx kodları için çağrılarınızı üstel geri çekilme ile sarmalayın. 4xx kodlarını otomatik yeniden denemeyin.

Maliyet Kontrol Desenleri

Maliyetleri yönetmek için şu pratik desenleri uygulayın:

  1. Varsayılan olarak V4-Flash kullanın. Yüksek kalite gerektiren istemler için sadece V4-Pro'ya geçin.
  2. thinking_max'i bayrak arkasına alın. En pahalı moddur; sadece gerekliyse açın.
  3. max_tokens'ı sınırlandırın. Çoğu çıktı için 2.000 token yeterli.
  4. Her çağrıda usage'ı loglayın. Token tüketimini gözlemleyerek beklenmeyen maliyet artışlarını yakalayın.

Eski DeepSeek Modellerinden Geçiş

deepseek-chat ve deepseek-reasoner kimlikleri 24 Temmuz 2026'da kaldırılacak. Geçiş yapmak için sadece model adını değiştirin:

-  model="deepseek-chat"
+  model="deepseek-v4-pro"
Enter fullscreen mode Exit fullscreen mode

Üretim geçişinden önce Apidog ile yan yana A/B testi yaparak kalite farkını gözlemleyin.

SSS

DeepSeek V4 API üretime hazır mı?

Evet. API 23 Nisan 2026'da ağırlıklarla birlikte açıldı; altyapı olgun.

V4, Anthropic formatını destekliyor mu?

Evet, https://api.deepseek.com/anthropic/v1/messages ile kullanılabilir.

Bağlam penceresi nedir?

Her iki modelde de 1 milyon token. Think Max için minimum öneri 384K token.

Girdi tokenlarını nasıl sayarım?

Yaklaşık değer için OpenAI tokenlaştırıcı; tam sayı için yanıtın usage bloğu.

API ile ince ayar yapılabiliyor mu?

Lansmanda hayır; sadece kendi barındırılan checkpoint'ler üzerinden (Hugging Face).

API ücretsiz mi?

Ücretsiz katman yok, ancak yeni hesaplar bazen deneme kredisi alabilir.

Top comments (0)