DEV Community

Cover image for Comment utiliser l'API DeepSeek V4 gratuitement ?
Antoine Laurent
Antoine Laurent

Posted on • Originally published at apidog.com

Comment utiliser l'API DeepSeek V4 gratuitement ?

DeepSeek V4 a été lancé le 23 avril 2026 avec une API dont le prix est suffisamment bas pour que la plupart des équipes évitent complètement la chasse aux offres gratuites. Toutefois, il existe plusieurs méthodes pour accéder gratuitement à V4 par API, idéales pour les développeurs souhaitant automatiser ou prototyper avant d'investir. Ce tutoriel montre comment combiner différents points d’accès gratuits pour automatiser vos appels DeepSeek V4 sans frais, en structurant une chaîne de secours dans Apidog afin de maximiser la résilience de vos prototypes.

Essayez Apidog dès aujourd'hui

Ce guide cible le chemin gratuit API. Pour un panorama incluant le chat web et l’auto-hébergement, lisez comment utiliser DeepSeek V4 gratuitement. Pour la procédure payante, rendez-vous sur comment utiliser l'API DeepSeek V4. Pour l’aperçu produit, voyez qu'est-ce que DeepSeek V4.

TL;DR

  • Niveau gratuit OpenRouterdeepseek/deepseek-v4-flash:free (parfois deepseek-v4-pro:free). Compatible OpenAI, quelques centaines de requêtes/jour/clé.
  • Fournisseurs d'inférence Hugging Face — endpoint partagé : https://router.huggingface.co/hf-inference. Limites de débit strictes, pratique pour tester.
  • Niveau gratuit Chutes — réseau GPU communautaire qui expose des endpoints DeepSeek gratuits peu après lancement.
  • Crédit d’essai DeepSeek — nouveaux comptes sur platform.deepseek.com reçoivent parfois un crédit initial.
  • Auto-hébergement V4-Flash — gratuit niveau licence si vous avez du GPU ; voir comment exécuter DeepSeek V4 localement.
  • Chaîne de secours dans Apidog — unifiez la structure de requête pour tous les fournisseurs.

DeepSeek V4 providers

Pourquoi le chemin d'API gratuit existe

Malgré des tarifs déjà compétitifs, exploiter l’accès gratuit se justifie dans plusieurs cas :

  1. Prototypage sans friction : tester en code avant tout engagement financier.
  2. Étudiants, chercheurs, projets open source : besoin de qualité sans budget.
  3. Comparaison fournisseurs : mesurer latence, qualité et fiabilité sur diverses plateformes en conditions réelles.

Si vous êtes dans un de ces cas, poursuivez ! Pour produire à grande échelle, le mode payant devient rapidement plus simple.

Chemin 1 : Niveau gratuit OpenRouter

OpenRouter agrège plusieurs modèles derrière une API OpenAI-compatible et propose régulièrement des variantes gratuites lors des lancements DeepSeek.

Configuration

  1. Inscrivez-vous sur openrouter.ai.
  2. Créez une clé API via Paramètres → Clés.
  3. Repérez les modèles suffixés :free, ex. deepseek/deepseek-v4-flash:free.
  4. Utilisez un SDK compatible OpenAI pour appeler le modèle.
from openai import OpenAI

client = OpenAI(
    api_key=OPENROUTER_API_KEY,
    base_url="https://openrouter.ai/api/v1",
)

response = client.chat.completions.create(
    model="deepseek/deepseek-v4-flash:free",
    messages=[{"role": "user", "content": "Refactor this Go function to use channels."}],
)

print(response.choices[0].message.content)
Enter fullscreen mode Exit fullscreen mode

Limites

  • 50 à 200 requêtes/jour/clé, concurrence élevée
  • Prototypage uniquement ; pas de promesse de disponibilité

Version Node

import OpenAI from "openai";

const client = new OpenAI({
  apiKey: process.env.OPENROUTER_API_KEY,
  baseURL: "https://openrouter.ai/api/v1",
});

const response = await client.chat.completions.create({
  model: "deepseek/deepseek-v4-flash:free",
  messages: [{ role: "user", content: "Explain MoE routing like I'm 12." }],
});

console.log(response.choices[0].message.content);
Enter fullscreen mode Exit fullscreen mode

Chemin 2 : Fournisseurs d'inférence Hugging Face

Hugging Face expose les checkpoints DeepSeek V4 via un endpoint partagé. Idéal pour un accès rapide, mais limites strictes.

import os
from huggingface_hub import InferenceClient

client = InferenceClient(
    model="deepseek-ai/DeepSeek-V4-Flash",
    token=os.environ["HF_TOKEN"],
)

response = client.chat_completion(
    messages=[
        {"role": "user", "content": "Write a Python decorator that retries with jitter."}
    ],
    max_tokens=512,
)

print(response.choices[0].message.content)
Enter fullscreen mode Exit fullscreen mode

Chemin 3 : Chutes et passerelles communautaires

Chutes héberge régulièrement DeepSeek sur un réseau GPU communautaire, accessible via une API compatible OpenAI.

client = OpenAI(
    api_key=CHUTES_API_KEY,
    base_url="https://llm.chutes.ai/v1",
)

response = client.chat.completions.create(
    model="deepseek-ai/DeepSeek-V4-Flash",
    messages=[{"role": "user", "content": "Compare CSA and HCA attention in two sentences."}],
)
Enter fullscreen mode Exit fullscreen mode
  • Vérifiez disponibilité et coût dans le dashboard Chutes avant usage.

Chemin 4 : Crédit d'essai DeepSeek

DeepSeek crédite parfois les nouveaux comptes (montant et validité variables). Consultez votre dashboard sur platform.deepseek.com après inscription.

  • 1 $ d’essai = ~7M jetons sur V4-Flash ou ~570K jetons sur V4-Pro
  • Suffisant pour plusieurs centaines de requêtes de prototypage

Construire une chaîne gratuite agnostique au fournisseur dans Apidog

Centralisez vos tests et automatisez la bascule entre fournisseurs dans Apidog :

  1. Téléchargez Apidog et créez un projet.
  2. Créez quatre environnements : openrouter, huggingface, chutes, deepseek-trial.
  3. Stockez les clés API et définissez BASE_URL dans chaque environnement.
  4. Créez une requête POST vers {{BASE_URL}}/chat/completions avec un champ model dynamique.
  5. Changez d’environnement pour exécuter la même invite sur chaque fournisseur d’un clic.

Ce workflow est réutilisable pour d’autres APIs gratuites (ex : GPT-5.5) : dupliquez la collection, changez les endpoints.

Implémenter une chaîne de secours dans le code

Pour automatiser la bascule entre fournisseurs lors d’une limitation :

import os
from openai import OpenAI, RateLimitError, APIError

PROVIDERS = [
    {
        "base_url": "https://openrouter.ai/api/v1",
        "api_key": os.environ["OPENROUTER_API_KEY"],
        "model": "deepseek/deepseek-v4-flash:free",
    },
    {
        "base_url": "https://llm.chutes.ai/v1",
        "api_key": os.environ["CHUTES_API_KEY"],
        "model": "deepseek-ai/DeepSeek-V4-Flash",
    },
    {
        "base_url": "https://api.deepseek.com/v1",
        "api_key": os.environ["DEEPSEEK_API_KEY"],
        "model": "deepseek-v4-flash",
    },
]

def call_v4(messages):
    for provider in PROVIDERS:
        try:
            client = OpenAI(
                api_key=provider["api_key"],
                base_url=provider["base_url"],
            )
            return client.chat.completions.create(
                model=provider["model"],
                messages=messages,
            )
        except (RateLimitError, APIError) as e:
            print(f"{provider['base_url']} failed: {e}")
            continue
    raise RuntimeError("all providers exhausted")
Enter fullscreen mode Exit fullscreen mode

À quoi sert chaque chemin gratuit ?

Chemin Idéal pour Moins adapté pour
OpenRouter gratuit Prototypage, dev quotidien SLA stricts
Inférence HF Appels exploratoires, notebooks Faible latence
Chutes Expérimentation communautaire Dépendances long terme
Essai DeepSeek Tests production Production soutenue
V4-Flash auto-hébergé Conformité, autonomie Équipes sans GPU

Calcul des quotas

  • OpenRouter gratuit : ~100 requêtes/jour/clé, ~50K jetons/chacune → 30-50 appels réels/jour.
  • Inférence HF gratuite : ~1K requêtes/jour/compte, latence variable.
  • Chutes : variable, à tester.
  • Essai DeepSeek (1 $) : ~700 appels de 10K jetons sur V4-Flash.
  • V4-Flash auto-hébergé : limité par votre matériel (ex : 4 × H100 = 50–150 tok/s).

Besoin de plus ? À 0,14 $/M sur V4-Flash, 10 000 appels de 2K contexte + 500 sortie coûtent ~2,80 $. Le payant devient optimal après prototypage.

Quand passer à l'API payante

Passez à l’API officielle lorsque :

  1. Vous atteignez fréquemment les limites de débit.
  2. Vous chaînez plusieurs fournisseurs juste pour tenir la charge.
  3. Vos tests nécessitent une latence/SLA prévisible.

Le rechargement minimum sur platform.deepseek.com est de 2 $. Consultez le guide tarifaire DeepSeek V4.

FAQ

Un chemin gratuit est-il garanti ?

Non, ils changent sans préavis. Outils de prototypage uniquement.

OpenRouter :free délivre-t-il le vrai V4 ?

Oui, mais sur infra partagée et quotas stricts.

Usage commercial permis avec les chemins gratuits ?

Vérifiez les CGU. OpenRouter autorise pour usage limité, HF aussi mais restrictions. DeepSeek trial suit ses CGU principales.

Meilleure latence gratuite ?

Le propre crédit DeepSeek, suivi d’OpenRouter. HF et Chutes sont plus variables.

Auto-hébergement V4 gratuit ?

Licence MIT, oui. Le coût, c’est le matériel. Voir comment exécuter DeepSeek V4 localement.

Comment suivre quel chemin j'ai utilisé ?

Utilisez Apidog et épinglez usage dans le viewer, ou vérifiez les dashboards fournisseurs.

Top comments (0)