DEV Community

Cover image for Cómo Usar la API de DeepSeek V4 Gratis
Roobia
Roobia

Posted on • Originally published at apidog.com

Cómo Usar la API de DeepSeek V4 Gratis

DeepSeek V4 se lanzó el 23 de abril de 2026 con una API de bajo costo, pero existen rutas realmente gratuitas para desarrolladores que desean automatizar pruebas o prototipos sin registrar una tarjeta. Varias pasarelas agregadas ofrecen variantes :free, Hugging Face publica un endpoint de inferencia compartido, y la API oficial otorga crédito de prueba a cuentas nuevas. Si combinas estas rutas y configuras una cadena de respaldo en Apidog, puedes construir y probar productos con V4 sin gastar dinero.

Prueba Apidog hoy

Esta guía explica el uso gratuito de la API. Para opciones que incluyen chat web y autoalojamiento, revisa cómo usar DeepSeek V4 gratis. Para el tutorial de pago, consulta cómo usar la API de DeepSeek V4. Para la descripción general del producto, ve a qué es DeepSeek V4.

En resumen

  • Nivel gratuito de OpenRouterdeepseek/deepseek-v4-flash:free y a veces deepseek-v4-pro:free. Compatible con OpenAI, permite cientos de solicitudes al día por clave.
  • Proveedores de inferencia de Hugging Face — endpoint gratuito en https://router.huggingface.co/hf-inference. Útil para prototipos, con límite de velocidad.
  • Nivel gratuito de Chutes — red comunitaria de GPU que expone endpoints gratuitos de DeepSeek poco después del lanzamiento.
  • Crédito de prueba de DeepSeek — cuentas nuevas en platform.deepseek.com reciben saldo inicial.
  • V4-Flash autoalojado — ejecuta en tu propia GPU sin costo de licencia; consulta cómo ejecutar DeepSeek V4 localmente.
  • Crea una cadena de respaldo en Apidog para mantener la misma forma de solicitud en todos los proveedores.

Por qué existe la ruta gratuita de la API

Aunque DeepSeek ya tiene precios bajos, las rutas gratuitas existen por tres motivos clave:

  1. Prototipado previo a la tarjeta: Llama a V4 desde código sin registrar un método de pago.
  2. Trabajo estudiantil, investigación y open source: Accede a calidad de vanguardia para proyectos sin presupuesto.
  3. Comparación de proveedores: Ejecuta el mismo prompt en varios endpoints para comparar latencia, calidad y confiabilidad.

Si alguno de estos casos aplica, sigue esta guía. Si vas a lanzar un producto, pasa a la guía de la API de pago.

Ruta 1: Nivel gratuito de OpenRouter

OpenRouter es una pasarela compatible con la API de OpenAI que agrega modelos de vanguardia, incluyendo variantes gratuitas de DeepSeek V4.

Configuración

  1. Regístrate en openrouter.ai.
  2. Crea una clave API en Ajustes → Claves.
  3. Busca modelos con sufijo :free, por ejemplo deepseek/deepseek-v4-flash:free.
  4. Llama al endpoint con cualquier SDK compatible con OpenAI.

Ejemplo en Python

from openai import OpenAI

client = OpenAI(
    api_key=OPENROUTER_API_KEY,
    base_url="https://openrouter.ai/api/v1",
)

response = client.chat.completions.create(
    model="deepseek/deepseek-v4-flash:free",
    messages=[{"role": "user", "content": "Refactoriza esta función Go para usar canales."}],
)

print(response.choices[0].message.content)
Enter fullscreen mode Exit fullscreen mode

Límites

Las solicitudes gratuitas se ponen en cola tras el tráfico de pago. Los límites suelen estar entre 50 y 200 solicitudes por día por clave, con concurrencia baja. Puede ralentizarse o desactivarse sin aviso.

Ejemplo en Node.js

import OpenAI from "openai";

const client = new OpenAI({
  apiKey: process.env.OPENROUTER_API_KEY,
  baseURL: "https://openrouter.ai/api/v1",
});

const response = await client.chat.completions.create({
  model: "deepseek/deepseek-v4-flash:free",
  messages: [{ role: "user", content: "Explica el enrutamiento de MoE como si tuviera 12 años." }],
});

console.log(response.choices[0].message.content);
Enter fullscreen mode Exit fullscreen mode

Ruta 2: Proveedores de inferencia de Hugging Face

Hugging Face ofrece un endpoint compartido para DeepSeek V4. Es gratuito con un token de HF, pero tiene límites estrictos de velocidad.

import os
from huggingface_hub import InferenceClient

client = InferenceClient(
    model="deepseek-ai/DeepSeek-V4-Flash",
    token=os.environ["HF_TOKEN"],
)

response = client.chat_completion(
    messages=[
        {"role": "user", "content": "Escribe un decorador de Python que reintente con jitter."}
    ],
    max_tokens=512,
)

print(response.choices[0].message.content)
Enter fullscreen mode Exit fullscreen mode

Obtén el token gratuito en huggingface.co/settings/tokens. La latencia y el uso dependen de la carga. Para menos límites, actualiza a HF Pro o migra a la API de DeepSeek.

Ruta 3: Chutes y pasarelas comunitarias

Chutes es una red descentralizada de GPU que frecuentemente aloja variantes de DeepSeek V4 con endpoints compatibles con OpenAI, por ejemplo https://llm.chutes.ai/v1.

client = OpenAI(
    api_key=CHUTES_API_KEY,
    base_url="https://llm.chutes.ai/v1",
)

response = client.chat.completions.create(
    model="deepseek-ai/DeepSeek-V4-Flash",
    messages=[{"role": "user", "content": "Compara la atención CSA y HCA en dos frases."}],
)
Enter fullscreen mode Exit fullscreen mode

La disponibilidad y los modelos cambian rápido. Siempre valida el ID del modelo y el costo antes de depender de esta ruta.

Ruta 4: Crédito de prueba de DeepSeek

DeepSeek otorga crédito de prueba a cuentas nuevas (por ejemplo, $1 tras verificar email). Revisa tu saldo tras registrarte en platform.deepseek.com.

Incluso $1 rinde mucho: ~7 millones de tokens de entrada en V4-Flash o 570,000 en V4-Pro.

Crea una cadena gratuita agnóstica al proveedor en Apidog

Para resiliencia, configura una cadena de respaldo en Apidog y alterna entre rutas gratuitas según disponibilidad:

  1. Descarga Apidog y crea un nuevo proyecto.
  2. Define cuatro entornos: openrouter, huggingface, chutes, deepseek-trial.
  3. Guarda las claves API y BASE_URL como variables en cada entorno.
  4. Crea una solicitud POST a {{BASE_URL}}/chat/completions parametrizando model.
  5. Cambia de entorno para reusar el mismo prompt en todos los proveedores.

Este método también sirve para rutas gratuitas de la API de GPT-5.5.

Implementa una cadena de respaldo en código

Automatiza la reserva de proveedor en Python con el SDK de OpenAI:

import os
from openai import OpenAI, RateLimitError, APIError

PROVIDERS = [
    {
        "base_url": "https://openrouter.ai/api/v1",
        "api_key": os.environ["OPENROUTER_API_KEY"],
        "model": "deepseek/deepseek-v4-flash:free",
    },
    {
        "base_url": "https://llm.chutes.ai/v1",
        "api_key": os.environ["CHUTES_API_KEY"],
        "model": "deepseek-ai/DeepSeek-V4-Flash",
    },
    {
        "base_url": "https://api.deepseek.com/v1",
        "api_key": os.environ["DEEPSEEK_API_KEY"],
        "model": "deepseek-v4-flash",
    },
]

def call_v4(messages):
    for provider in PROVIDERS:
        try:
            client = OpenAI(
                api_key=provider["api_key"],
                base_url=provider["base_url"],
            )
            return client.chat.completions.create(
                model=provider["model"],
                messages=messages,
            )
        except (RateLimitError, APIError) as e:
            print(f"{provider['base_url']} falló: {e}")
            continue
    raise RuntimeError("todos los proveedores agotados")
Enter fullscreen mode Exit fullscreen mode

Para qué sirve realmente cada ruta gratuita

Ruta Mejor para Peor para
OpenRouter gratuito Prototipado, desarrollo diario Cualquier cosa con SLAs estrictos
Inferencia HF Llamadas exploratorias, notebooks Cargas de trabajo de baja latencia
Chutes Trabajo comunitario experimental Dependencias a largo plazo
Prueba de DeepSeek Pruebas de fidelidad total Producción sostenida
V4-Flash autoalojado Trabajo con requisitos de cumplimiento Equipos sin capacidad de GPU

Cálculo de cuotas que importa

Ten en cuenta los límites diarios reales de cada ruta gratuita:

  • OpenRouter gratuito: ~100 solicitudes/día/clave, ~50K tokens cada una. Útil para 30-50 llamadas de desarrollo por día.
  • Inferencia HF gratuita: límite compartido, ~1000 solicitudes/día por cuenta; puede ser lento bajo carga.
  • Chutes: variable; úsalo como mejor esfuerzo.
  • Prueba de DeepSeek ($1): ~700 llamadas de 10K tokens cada una en V4-Flash.
  • V4-Flash autoalojado: el límite es tu hardware (p.ej., 4 × H100 = 50-150 tok/s).

Si tu prototipo supera estos límites, la API de pago es más eficiente. A $0.14/M en V4-Flash, 10,000 llamadas con 2K de contexto y 500 de salida cuestan ~$2.80.

Cuándo pasar a la API de pago

Considera escalar cuando:

  1. Alcanzas límites de velocidad varias veces al día.
  2. Encadenas varios proveedores gratuitos para cubrir la carga.
  3. Necesitas latencia predecible o SLAs.

La recarga mínima en platform.deepseek.com es de $2. Consulta la guía de precios de DeepSeek V4.

Preguntas frecuentes

¿Alguna ruta es permanentemente gratuita?

No. Los niveles gratuitos pueden cambiar o desaparecer. Úsalos solo para prototipos.

¿OpenRouter :free ejecuta el V4 real?

Sí, con límites de velocidad estrictos. La calidad es igual, el rendimiento puede variar.

¿Puedo usar la salida gratuita en un producto comercial?

Revisa los términos de cada proveedor. OpenRouter permite uso comercial dentro del límite; HF también, pero más restringido. DeepSeek sigue sus propios términos.

¿Qué ruta gratuita tiene la mejor latencia?

El crédito de prueba de DeepSeek, seguido de OpenRouter. HF y Chutes varían.

¿Puedo autoalojar V4 gratis?

Sí, la licencia es MIT. El costo es solo el hardware. Consulta cómo ejecutar DeepSeek V4 localmente.

¿Cómo rastreo qué ruta gratuita usé hoy?

Usa Apidog y activa usage en el visor de respuestas. La mayoría de agregadores también tienen panel de uso.

Top comments (0)