DeepSeek V4 wurde am 23. April 2026 veröffentlicht. Im Gegensatz zu vielen anderen Launches sind die kostenlosen Nutzungsmöglichkeiten tatsächlich nutzbar: Der offizielle Web-Chat läuft mit V4-Pro ohne Kreditkarte, die MIT-lizenzierten Gewichte sind heute verfügbar und Aggregatoren wie OpenRouter und Chutes bieten oft wenige Tage nach Release kostenlose Stufen an. So können Sie V4-Workloads ernsthaft testen, bevor Sie sich für ein kostenpflichtiges Modell entscheiden.
In diesem Leitfaden finden Sie konkrete, geprüfte kostenlose Pfade, passende Anwendungsfälle und eine Schritt-für-Schritt-Anleitung, wie Sie eine produktionsreife Sammlung in Apidog einrichten. So bleibt Ihr Wechsel zur kostenpflichtigen Nutzung bei steigendem Bedarf reibungslos.
Eine Produktübersicht: Was ist DeepSeek V4. Komplette API-Anleitung: So verwenden Sie die DeepSeek V4 API.
Kurzfassung
- chat.deepseek.com – Kostenloser Web-Chat mit V4-Pro, Think High-/Think Max-Modi. Keine Karte nötig, funktioniert sofort.
- Hugging Face Gewichte + eigene GPU – MIT-Lizenz, V4-Flash läuft auf 2–4 H100s, V4-Pro benötigt einen Cluster.
- OpenRouter und Chutes kostenlose Tarife – Drittanbieter-Gateways mit meist zeitnahen Freischaltungen für neue DeepSeek-Modelle.
- Hugging Face Inference Provider – Ratenbegrenzter, geteilter Endpunkt für frühe Experimente.
- Kaggle, Colab, RunPod Testguthaben – Einmalige kostenlose Rechenleistung zum Self-Hosting-Test.
- Jeder kostenlose Pfad limitiert die Nutzung. Für produktiven Einsatz wechseln Sie rechtzeitig zu kostenpflichtigen APIs.
Pfad 1: chat.deepseek.com (der Standardweg)
Der schnellste Weg: Die offizielle Chat-Oberfläche. V4-Pro ist Standard, der Umschalter oben wechselt zwischen Non-Think, Think High und Think Max.
Einrichtung
- Öffnen Sie chat.deepseek.com.
- Anmeldung via E-Mail, Google oder WeChat.
- Prüfen, dass das Modell V4-Pro aktiv ist.
- Prompt schreiben und losschicken.
Was ist verfügbar
- Komplettes 1M-Token-Kontextfenster
- Dateiupload (PDF, Bilder, Codepakete)
- Websuche on demand
- Alle Denkmodi inklusive Think Max
- Gesprächsverlauf und Ordnerstruktur
Begrenzungen
Es gibt keine feste Tageslimitierung; die Drosselung erfolgt dynamisch unter Last. Starke Nutzung kann zu Wartezeiten führen, jedoch selten zu Komplettsperren. Bei dauerhafter Ratenbegrenzung empfiehlt sich der Wechsel zur API.
Geeignet für: Schnelles Testen, Architektur-Reviews, Think Max gegen komplexe Dokumente
Nicht geeignet für: Automatisierung, reproduzierbare Workflows
Pfad 2: V4-Flash selbst hosten (eigene GPU)
V4-Flash ist MIT-lizenziert und realistisch selbst zu betreiben. 284B gesamt, 13B aktiv – läuft auf Multi-H100-Box (FP8) mit hohem Durchsatz, INT4-Quantisierung reicht für eine einzelne 80GB-Karte.
Kosten: Hardware, nicht Lizenz
Ideal: Bereits vorhandene GPU-Kapazitäten oder Compliance-Anforderungen
Gewichte herunterladen
pip install -U "huggingface_hub[cli]"
huggingface-cli login
huggingface-cli download deepseek-ai/DeepSeek-V4-Flash \
--local-dir ./models/deepseek-v4-flash
Erfordert ca. 500 GB bei FP8.
Deployment mit vLLM
pip install "vllm>=0.9.0"
vllm serve deepseek-ai/DeepSeek-V4-Flash \
--tensor-parallel-size 4 \
--max-model-len 1048576 \
--dtype auto \
--port 8000
Stellen Sie OpenAI-kompatible Clients auf http://localhost:8000/v1 um. Apidog behandelt diesen Endpunkt wie jede andere Basis-URL, gespeicherte Collections bleiben nutzbar.
Hardware-Check
| Variante | Min. Karten (FP8) | Min. Karten (INT4) | Realistischer Durchsatz |
|---|---|---|---|
| V4-Flash | 2 × H100 80GB | 1 × H100 80GB | 50–150 Tok/s |
| V4-Pro | 16 × H100 80GB | 8 × H100 80GB | Cluster-abhängig |
Wenn keine ungenutzten Karten vorhanden sind, ist die API in der Regel günstiger als GPU-Miete. Dieser Weg lohnt für bestehende Hardware oder strenge Compliance.
Pfad 3: OpenRouter kostenloser Tarif
OpenRouter aggregiert APIs für offene und geschlossene Modelle und stellt regelmäßig kostenlose Tarife für neue DeepSeek-Releases bereit.
Einrichtung
- Registrierung bei openrouter.ai.
- API-Schlüssel generieren.
- Im Modellkatalog nach
deepseek/deepseek-v4-prooderdeepseek/deepseek-v4-flashsuchen, kostenlose Varianten sind mit:freegekennzeichnet. - Nutzung mit OpenAI-kompatiblem SDK.
from openai import OpenAI
client = OpenAI(
api_key=OPENROUTER_KEY,
base_url="https://openrouter.ai/api/v1",
)
response = client.chat_completions.create(
model="deepseek/deepseek-v4-flash:free",
messages=[{"role": "user", "content": "Write a Python CLI for semver bumping."}],
)
print(response.choices[0].message.content)
Begrenzungen
Kostenlose Tarife erlauben meist einige hundert Anfragen/Tag und Schlüssel, bei Last mit reduzierter Priorität. Für Prototyping geeignet, nicht für Produktion.
Pfad 4: Hugging Face Inference Provider
Hugging Face bietet gehostete Inferenz-Endpoints für neue DeepSeek-Modelle. Die Nutzung ist kostenlos, aber stark ratenbegrenzt.
from huggingface_hub import InferenceClient
client = InferenceClient(model="deepseek-ai/DeepSeek-V4-Flash")
response = client.chat_completion(
messages=[{"role": "user", "content": "Summarize the V4 technical report in 5 bullets."}],
max_tokens=512,
)
print(response.choices[0].message.content)
Für intensivere Nutzung empfiehlt sich ein Pro-Account – günstiger als die offizielle API.
Pfad 5: Testguthaben bei Colab, Kaggle, RunPod, Lambda
Viele GPU-Mietdienste bieten Testguthaben:
- Google Colab: Kostenloser T4-Tarif reicht nicht, aber Colab Pro+ mit 500 Compute-Einheiten/Monat reicht für einige V4-Flash-Experimente (A100).
- Kaggle: Wöchentliche kostenlose GPU-Stunden (T4, P100) – zu klein für V4-Pro, reicht manchmal für quantisierte V4-Flash-Tests.
- RunPod: $10 Testguthaben – reicht für mehrere Stunden auf H100.
- Lambda: Gelegentlich Gratis-Stunden auf H100/H200; aktuelle Aktionen bei Registrierung prüfen.
Alle diese Wege sind für einmalige Tests, nicht für langfristige Nutzung geeignet.
Anbieterunabhängige Apidog-Sammlung erstellen
Der Vorteil: Testen Sie denselben Prompt gleichzeitig auf allen kostenlosen Pfaden ohne Dopplung. Vorgehen:
- Apidog herunterladen.
- Erstellen Sie eine Sammlung mit vier Umgebungen:
-
chat(Platzhalter) -
deepseek(https://api.deepseek.com/v1) -
openrouter(https://openrouter.ai/api/v1) -
self-hosted(http://localhost:8000/v1)
-
- Speichern Sie eine POST-Anfrage an
{{BASE_URL}}/chat/completions. - Legen Sie Anbieter-Keys als geheime Variablen an, damit der Request-Body identisch bleibt.
- Wechseln Sie die Umgebungen, um Prompts per A/B-Test über alle Backends zu schicken.
Nutzen Sie das gleiche Muster wie für die GPT-5.5 Free-Tier-Sammlung.
Welchen kostenlosen Pfad sollten Sie wählen?
- In 5 Minuten testen: chat.deepseek.com
- Prototyp bauen: OpenRouter kostenlos, dann DeepSeek-API laden
- Eigene GPUs und Compliance: V4-Flash selbst hosten (vLLM)
- Langfristig kostenlos nutzen: Gibt es nicht – kombinieren Sie chat.deepseek.com für Interaktion mit kleinen kostenpflichtigen Paketen für Automatisierung.
Wann den kostenlosen Tarif verlassen?
Wechseln Sie zu kostenpflichtigen APIs, wenn:
- Ratenbegrenzung mehrmals täglich auftritt: Dann lohnt sich ein Budget.
- SLAs benötigt werden: Nur die offizielle API bietet diese.
- Protokollierung, Auditing, Compliance: Die kostenpflichtige API liefert klare Abrechnungsdaten.
Dann empfiehlt sich die offizielle API. Mindestaufladung: $2, Frontier-Tarif ist am günstigsten.
FAQ
Ist chat.deepseek.com wirklich kostenlos?
Ja, keine Kreditkarte, keine Testzeit. Es wird nur bei hoher Last sanft gedrosselt.
Brauche ich ein Hugging Face-Konto für die Gewichte?
Technisch nein, aber angemeldet sind die Downloads weniger eingeschränkt.
Welcher kostenlose Pfad bietet echtes V4-Pro?
chat.deepseek.com liefert immer V4-Pro. OpenRouter-free ist meist V4-Flash. V4-Pro-Ausgaben kostenlos gibt es zuverlässig nur im Web-Chat.
Kann ein kostenloser Tarif produktiv genutzt werden?
Nicht verantwortungsvoll — Tarife können limitiert oder abgestellt werden. Für Kundenanwendungen: kostenpflichtige API oder eigenes Hosting.
Ist Self-Hosting wirklich kostenlos?
Die Lizenz ist es, die Hardware nicht. Bei bestehenden GPUs sind die Zusatzkosten minimal. Miete lohnt meist nicht.
Wird es einen kostenlosen Apidog-Tarif geben?
Apidog ist für API-Design/-Testing kostenlos; Gebühren entstehen nur bei kostenpflichtigen API-Aufrufen. Sie können also mit chat.deepseek.com oder OpenRouter einen komplett kostenfreien Workflow aufsetzen.



Top comments (0)