DEV Community

Cover image for DeepSeek V4 Kullanımı: Web Sohbet, API ve Self-Hosted Yöntemleri
Tobias Hoffmann
Tobias Hoffmann

Posted on • Originally published at apidog.com

DeepSeek V4 Kullanımı: Web Sohbet, API ve Self-Hosted Yöntemleri

DeepSeek V4, 23 Nisan 2026'da dört kontrol noktası, canlı bir API ve Hugging Face'de MIT lisanslı ağırlıklarla yayınlandı. Bu kombinasyon, onu kullanmanın tek bir "doğru yolu" olmadığı anlamına geliyor; en iyi yol, anında erişim, üretim API çağrıları veya şirket içi dağıtım isteyip istemediğinize bağlıdır. Bu kılavuz, her üçünü de ödünleşimleri, püf noktaları ve yeniden kullanabileceğiniz üretime hazır bir prompt iş akışıyla birlikte anlatmaktadır.

Apidog'u hemen deneyin

Sadece ürün seviyesi genel bir bakış istiyorsanız, önce DeepSeek V4 nedir yazısını okuyun. Sadece API kullanımına ilişkin ayrıntılı bilgi için DeepSeek V4 API kılavuzuna bakın. Sıfır maliyetli yol için DeepSeek V4'ü ücretsiz olarak nasıl kullanacağınıza bakın. Gerçek istekleri test etmeye hazır olduğunuzda Apidog'u edinin ve koleksiyonu önceden oluşturun.

TL;DR

  • En hızlı yol: chat.deepseek.com. Ücretsiz web sohbeti, varsayılan olarak V4-Pro, üç düşünme modu.
  • Üretim yolu: https://api.deepseek.com/v1/chat/completions, model ID'leri deepseek-v4-pro veya deepseek-v4-flash ile.
  • Kendi kendine barındırılan yol: Hugging Face'den ağırlıkları çekin, repodaki /inference komut dosyalarını çalıştırın.
  • Yönlendirme ve sınıflandırma için Non-Think'i, kod ve analiz için Think High'ı, maliyetten ziyade doğruluk önemli olduğunda ise sadece Think Max'i seçin.
  • DeepSeek'ten örnekleme önerisi: temperature=1.0, top_p=1.0. Buna tekrar şüpheyle yaklaşmayın.
  • API istemcisi olarak Apidog'u kullanın; OpenAI uyumlu format, kaydedilen bir isteğin DeepSeek, OpenAI ve Anthropic'te tekrar oynatılması anlamına gelir.

İş Yükünüz İçin Doğru Yolu Seçin

Dört pratik yol var. Her birinin öne çıktığı farklı kullanım alanları mevcut:

Yol Maliyet Kurulum süresi En iyisi
chat.deepseek.com Ücretsiz 30 saniye Hızlı testler, geçici işler
DeepSeek API Token başına ücretlendirme 5 dakika Üretim, ajanlar, toplu işler
Kendi kendine barındırılan V4-Flash Yalnızca donanım maliyeti Birkaç saat Şirket içi uyumluluk, çevrimdışı çıkarım
Kendi kendine barındırılan V4-Pro Yalnızca küme maliyeti Bir gün Araştırma, özel ince ayarlar
OpenRouter / toplayıcı Token başına ücretlendirme 2 dakika Çoklu sağlayıcı yedeklemesi

Yol 1: V4'ü Web Sohbetinde Kullanın

En hızlı başlama yolu resmi sohbet arayüzüdür:

  1. chat.deepseek.com adresine gidin.
  2. E-posta, Google veya WeChat ile oturum açın.
  3. V4-Pro varsayılan modeldir. Üstteki anahtardan Non-Think, Think High ve Think Max modunu seçebilirsiniz.
  4. Prompt'unuzu yazmaya başlayın.

Web sohbeti üzerinden dosya yükleyebilir, web araması yapabilir ve 1M token bağlam desteğinden yararlanabilirsiniz. Hesap bazlı hız limiti uygulanır; yoğun kullanımda yanıtlar yavaşlayabilir fakat genelde bloklanmaz.

Web arayüzü için tipik işler: hata izi teşhisi, uzun PDF özetleme, farklı modellerle prompt karşılaştırması. Kötü kullanım: otomatikleştirilmiş veya tekrar oynatılması gereken işler.

Yol 2: DeepSeek API'sini Kullanın

Üretim ve otomasyon için en pratik yöntem budur. API, OpenAI formatı ile tamamen uyumlu.

API Anahtarı Alın

  1. platform.deepseek.com adresinden kaydolun.
  2. Bir ödeme yöntemi ekleyin (minimum 2 dolar yükleme).
  3. API Anahtarları altında yeni bir anahtar oluşturun ve gizli anahtarı saklayın.

Anahtarı terminal ortamına ekleyin:

export DEEPSEEK_API_KEY="sk-..."
Enter fullscreen mode Exit fullscreen mode

Minimum Uygulanabilir API Çağrısı

curl https://api.deepseek.com/v1/chat/completions \
  -H "Authorization: Bearer $DEEPSEEK_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "deepseek-v4-pro",
    "messages": [
      {"role": "user", "content": "Bu Python fonksiyonunu eşzamansız olarak yeniden düzenleyin. Sadece kodla yanıtlayın."}
    ],
    "thinking_mode": "thinking"
  }'
Enter fullscreen mode Exit fullscreen mode

Daha uygun maliyetli bir cevap için deepseek-v4-pro yerine deepseek-v4-flash kullanın. Düşünme modunu hız için non-thinking olarak ayarlayın.

Python İstemcisi ile Kullanım

import os
from openai import OpenAI

client = OpenAI(
    api_key=os.environ["DEEPSEEK_API_KEY"],
    base_url="https://api.deepseek.com/v1",
)

response = client.chat.completions.create(
    model="deepseek-v4-pro",
    messages=[
        {"role": "system", "content": "Sen özlü bir kıdemli mühendissin."},
        {"role": "user", "content": "CSA+HCA hibrit dikkat yığınını açıklayın."},
    ],
    extra_body={"thinking_mode": "thinking_max"},
    temperature=1.0,
    top_p=1.0,
)

print(response.choices[0].message.content)
Enter fullscreen mode Exit fullscreen mode

Node.js İstemcisi ile Kullanım

import OpenAI from "openai";

const client = new OpenAI({
  apiKey: process.env.DEEPSEEK_API_KEY,
  baseURL: "https://api.deepseek.com/v1",
});

const response = await client.chat.completions.create({
  model: "deepseek-v4-flash",
  messages: [{ role: "user", content: "Rust'ta bir fizzbuzz yaz." }],
  temperature: 1.0,
  top_p: 1.0,
});

console.log(response.choices[0].message.content);
Enter fullscreen mode Exit fullscreen mode

Tüm endpoint ve parametre detayları ile hata yönetimi için DeepSeek V4 API kılavuzunu inceleyin.

Yol 3: Apidog ile Otomatikleştirin ve Tekrar Oynatın

Curl ile bir-iki deneme kolaydır; ancak tekrar eden denemeler için Apidog ile çok daha verimli çalışırsınız.

  1. Mac, Windows veya Linux için Apidog'u indirin.
  2. Yeni bir API projesi oluşturun, https://api.deepseek.com/v1/chat/completions adresine POST isteği ekleyin.
  3. Authorization: Bearer {{DEEPSEEK_API_KEY}} başlığı ekleyin, anahtarı ortam değişkeni olarak saklayın.
  4. İlk JSON gövdesini yapıştırıp kaydedin. Her değişiklikten sonra tek tıkla tekrar oynatabilirsiniz.
  5. Yanıtları karşılaştırmak için yerleşik viewer'ı kullanın, özellikle Non-Think ve Think Max varyantlarının çıktısını gözlemleyin.

Aynı koleksiyonla OpenAI GPT-5.5, Claude ve DeepSeek V4 isteklerini yan yana test edebilirsiniz. Bu, sağlayıcılar arası A/B testini kolaylaştırır ve faturalama görünürlüğü sağlar. Var olan GPT-5.5 koleksiyonunu temel URL değiştirerek V4 koleksiyonu haline getirmek mümkündür.

Yol 4: V4-Flash'i Kendi Kendine Barındır

Şirket içi uyumluluk, hava boşluğu veya maliyet gerekçeleriyle kendi sunucunuzda çalıştırmak için MIT lisanslı ağırlıkları kullanabilirsiniz.

Donanım Gereksinimleri

  • V4-Flash (13B aktif, toplam 284B): FP8 için 2-4 H100/H200/MI300X kart, INT4 nicemlemede tek bir 80GB kartta sıkı batch ile çalışır.
  • V4-Pro (49B aktif, toplam 1.6T): 16-32 H100 gerektirir.

Model Ağırlıklarını İndirin

pip install -U "huggingface_hub[cli]"

huggingface-cli login  # Gerekirse

huggingface-cli download deepseek-ai/DeepSeek-V4-Flash \
  --local-dir ./models/deepseek-v4-flash \
  --local-dir-use-symlinks False
Enter fullscreen mode Exit fullscreen mode

V4-Flash FP8 ~500GB; V4-Pro ise birkaç TB büyüklüğünde olabilir.

Çıkarım Sunucusunu Başlatın

pip install "vllm>=0.9.0"

vllm serve deepseek-ai/DeepSeek-V4-Flash \
  --tensor-parallel-size 4 \
  --max-model-len 1048576 \
  --dtype auto
Enter fullscreen mode Exit fullscreen mode

vLLM çalıştıktan sonra, OpenAI uyumlu herhangi bir istemciyi http://localhost:8000/v1 adresine yönlendirin. Apidog koleksiyonunu da bu şekilde kullanabilirsiniz.

V4’ü Etkili Yönlendirme (Prompting)

Pratik prompt yazımı için:

  1. Düşünme modunu her zaman açıkça belirtin. thinking_mode parametresini göreve göre ayarlayın.
  2. Sistem mesajlarını sadece kişilik ve ton için kullanın. Görev tanımını kullanıcı mesajında belirtin.
  3. Kod görevlerinde test vaka(ları) ekleyin. Başarısız bir testi ekleyin, modelin daha doğru kod üretme ihtimali artar.

Uzun bağlamlarda, önemli bilgileri prompt'un başı ve sonuna yakın tutmaya çalışın.

Maliyet Kontrolü

  • Varsayılan olarak V4-Flash kullanın. V4-Pro'ya yalnızca kalite farkı ölçüldüğünde geçin.
  • Varsayılan olarak Non-Think kullanın. Sadece gerektiğinde Think High veya Think Max’a yükseltin.
  • max_tokens sınırı belirleyin. Çoğu yanıt için 2.000 token yeterlidir.

Apidog ortam değişkenlerini kullanarak test ve prod anahtarlarını ayırabilirsiniz. Apidog yanıt token sayılarını da gösterir; bu sayede uzun prompt'ları hızlıca tespit edebilirsiniz.

DeepSeek V3 veya Diğer Modellerden Geçiş

  • deepseek-chat / deepseek-reasoner’dan geçiş: Model ID’sini deepseek-v4-pro veya deepseek-v4-flash ile değiştirin.
  • OpenAI GPT-5.x'ten geçiş: Temel URL’yi https://api.deepseek.com/v1 olarak değiştirin, model ID’sini güncelleyin.
  • Anthropic Claude’dan geçiş: https://api.deepseek.com/anthropic endpoint’i veya OpenAI formatını kullanın.

SSS

V4'ü kullanmak için ücretli hesap gerekir mi? Web sohbeti ücretsizdir. API için minimum 2 dolar yükleme gerekir. Ücretsiz kullanım yolları için DeepSeek V4'ü ücretsiz olarak nasıl kullanacağınıza bakın.

Varsayılan olarak hangi varyantı kullanmalıyım? V4-Flash ve Non-Think mod ile başlayın. Kaliteyi ölçüp gerekiyorsa yükseltin.

V4'ü MacBook'ta çalıştırabilir miyim? V4-Flash, 128GB RAM'li M3 Max/M4 Max ile ağır nicemleme altında yavaşça çalışabilir. V4-Pro dizüstünde çalışmaz. Dizüstü için API veya web sohbetini kullanın.

V4 araç kullanımı/fonksiyon çağırmayı destekliyor mu? Evet. OpenAI uyumlu endpoint tools dizisini kabul eder, yanıtlar tool_calls ile gelir. Anthropic endpoint'i de destekler.

Yanıtları nasıl akış yapabilirim? İstek gövdesinde stream: true ayarlayın. Yanıt, OpenAI uyumlu SSE akışıdır.

API hız limiti var mı? Barındırılan API limitleri api-docs.deepseek.com'da yayınlanır. Kendi barındırılan modelde donanımınız dışında ek limit yoktur.

Top comments (0)