DeepSeek V4 se lanzó el 23 de abril de 2026 con una API de bajo costo, pero existen rutas realmente gratuitas para desarrolladores que desean automatizar pruebas o prototipos sin registrar una tarjeta. Varias pasarelas agregadas ofrecen variantes :free, Hugging Face publica un endpoint de inferencia compartido, y la API oficial otorga crédito de prueba a cuentas nuevas. Si combinas estas rutas y configuras una cadena de respaldo en Apidog, puedes construir y probar productos con V4 sin gastar dinero.
Esta guía explica el uso gratuito de la API. Para opciones que incluyen chat web y autoalojamiento, revisa cómo usar DeepSeek V4 gratis. Para el tutorial de pago, consulta cómo usar la API de DeepSeek V4. Para la descripción general del producto, ve a qué es DeepSeek V4.
En resumen
-
Nivel gratuito de OpenRouter —
deepseek/deepseek-v4-flash:freey a vecesdeepseek-v4-pro:free. Compatible con OpenAI, permite cientos de solicitudes al día por clave. -
Proveedores de inferencia de Hugging Face — endpoint gratuito en
https://router.huggingface.co/hf-inference. Útil para prototipos, con límite de velocidad. - Nivel gratuito de Chutes — red comunitaria de GPU que expone endpoints gratuitos de DeepSeek poco después del lanzamiento.
-
Crédito de prueba de DeepSeek — cuentas nuevas en
platform.deepseek.comreciben saldo inicial. - V4-Flash autoalojado — ejecuta en tu propia GPU sin costo de licencia; consulta cómo ejecutar DeepSeek V4 localmente.
- Crea una cadena de respaldo en Apidog para mantener la misma forma de solicitud en todos los proveedores.
Por qué existe la ruta gratuita de la API
Aunque DeepSeek ya tiene precios bajos, las rutas gratuitas existen por tres motivos clave:
- Prototipado previo a la tarjeta: Llama a V4 desde código sin registrar un método de pago.
- Trabajo estudiantil, investigación y open source: Accede a calidad de vanguardia para proyectos sin presupuesto.
- Comparación de proveedores: Ejecuta el mismo prompt en varios endpoints para comparar latencia, calidad y confiabilidad.
Si alguno de estos casos aplica, sigue esta guía. Si vas a lanzar un producto, pasa a la guía de la API de pago.
Ruta 1: Nivel gratuito de OpenRouter
OpenRouter es una pasarela compatible con la API de OpenAI que agrega modelos de vanguardia, incluyendo variantes gratuitas de DeepSeek V4.
Configuración
- Regístrate en openrouter.ai.
- Crea una clave API en Ajustes → Claves.
- Busca modelos con sufijo
:free, por ejemplodeepseek/deepseek-v4-flash:free. - Llama al endpoint con cualquier SDK compatible con OpenAI.
Ejemplo en Python
from openai import OpenAI
client = OpenAI(
api_key=OPENROUTER_API_KEY,
base_url="https://openrouter.ai/api/v1",
)
response = client.chat.completions.create(
model="deepseek/deepseek-v4-flash:free",
messages=[{"role": "user", "content": "Refactoriza esta función Go para usar canales."}],
)
print(response.choices[0].message.content)
Límites
Las solicitudes gratuitas se ponen en cola tras el tráfico de pago. Los límites suelen estar entre 50 y 200 solicitudes por día por clave, con concurrencia baja. Puede ralentizarse o desactivarse sin aviso.
Ejemplo en Node.js
import OpenAI from "openai";
const client = new OpenAI({
apiKey: process.env.OPENROUTER_API_KEY,
baseURL: "https://openrouter.ai/api/v1",
});
const response = await client.chat.completions.create({
model: "deepseek/deepseek-v4-flash:free",
messages: [{ role: "user", content: "Explica el enrutamiento de MoE como si tuviera 12 años." }],
});
console.log(response.choices[0].message.content);
Ruta 2: Proveedores de inferencia de Hugging Face
Hugging Face ofrece un endpoint compartido para DeepSeek V4. Es gratuito con un token de HF, pero tiene límites estrictos de velocidad.
import os
from huggingface_hub import InferenceClient
client = InferenceClient(
model="deepseek-ai/DeepSeek-V4-Flash",
token=os.environ["HF_TOKEN"],
)
response = client.chat_completion(
messages=[
{"role": "user", "content": "Escribe un decorador de Python que reintente con jitter."}
],
max_tokens=512,
)
print(response.choices[0].message.content)
Obtén el token gratuito en huggingface.co/settings/tokens. La latencia y el uso dependen de la carga. Para menos límites, actualiza a HF Pro o migra a la API de DeepSeek.
Ruta 3: Chutes y pasarelas comunitarias
Chutes es una red descentralizada de GPU que frecuentemente aloja variantes de DeepSeek V4 con endpoints compatibles con OpenAI, por ejemplo https://llm.chutes.ai/v1.
client = OpenAI(
api_key=CHUTES_API_KEY,
base_url="https://llm.chutes.ai/v1",
)
response = client.chat.completions.create(
model="deepseek-ai/DeepSeek-V4-Flash",
messages=[{"role": "user", "content": "Compara la atención CSA y HCA en dos frases."}],
)
La disponibilidad y los modelos cambian rápido. Siempre valida el ID del modelo y el costo antes de depender de esta ruta.
Ruta 4: Crédito de prueba de DeepSeek
DeepSeek otorga crédito de prueba a cuentas nuevas (por ejemplo, $1 tras verificar email). Revisa tu saldo tras registrarte en platform.deepseek.com.
Incluso $1 rinde mucho: ~7 millones de tokens de entrada en V4-Flash o 570,000 en V4-Pro.
Crea una cadena gratuita agnóstica al proveedor en Apidog
Para resiliencia, configura una cadena de respaldo en Apidog y alterna entre rutas gratuitas según disponibilidad:
- Descarga Apidog y crea un nuevo proyecto.
- Define cuatro entornos:
openrouter,huggingface,chutes,deepseek-trial. - Guarda las claves API y
BASE_URLcomo variables en cada entorno. - Crea una solicitud POST a
{{BASE_URL}}/chat/completionsparametrizandomodel. - Cambia de entorno para reusar el mismo prompt en todos los proveedores.
Este método también sirve para rutas gratuitas de la API de GPT-5.5.
Implementa una cadena de respaldo en código
Automatiza la reserva de proveedor en Python con el SDK de OpenAI:
import os
from openai import OpenAI, RateLimitError, APIError
PROVIDERS = [
{
"base_url": "https://openrouter.ai/api/v1",
"api_key": os.environ["OPENROUTER_API_KEY"],
"model": "deepseek/deepseek-v4-flash:free",
},
{
"base_url": "https://llm.chutes.ai/v1",
"api_key": os.environ["CHUTES_API_KEY"],
"model": "deepseek-ai/DeepSeek-V4-Flash",
},
{
"base_url": "https://api.deepseek.com/v1",
"api_key": os.environ["DEEPSEEK_API_KEY"],
"model": "deepseek-v4-flash",
},
]
def call_v4(messages):
for provider in PROVIDERS:
try:
client = OpenAI(
api_key=provider["api_key"],
base_url=provider["base_url"],
)
return client.chat.completions.create(
model=provider["model"],
messages=messages,
)
except (RateLimitError, APIError) as e:
print(f"{provider['base_url']} falló: {e}")
continue
raise RuntimeError("todos los proveedores agotados")
Para qué sirve realmente cada ruta gratuita
| Ruta | Mejor para | Peor para |
|---|---|---|
| OpenRouter gratuito | Prototipado, desarrollo diario | Cualquier cosa con SLAs estrictos |
| Inferencia HF | Llamadas exploratorias, notebooks | Cargas de trabajo de baja latencia |
| Chutes | Trabajo comunitario experimental | Dependencias a largo plazo |
| Prueba de DeepSeek | Pruebas de fidelidad total | Producción sostenida |
| V4-Flash autoalojado | Trabajo con requisitos de cumplimiento | Equipos sin capacidad de GPU |
Cálculo de cuotas que importa
Ten en cuenta los límites diarios reales de cada ruta gratuita:
- OpenRouter gratuito: ~100 solicitudes/día/clave, ~50K tokens cada una. Útil para 30-50 llamadas de desarrollo por día.
- Inferencia HF gratuita: límite compartido, ~1000 solicitudes/día por cuenta; puede ser lento bajo carga.
- Chutes: variable; úsalo como mejor esfuerzo.
- Prueba de DeepSeek ($1): ~700 llamadas de 10K tokens cada una en V4-Flash.
- V4-Flash autoalojado: el límite es tu hardware (p.ej., 4 × H100 = 50-150 tok/s).
Si tu prototipo supera estos límites, la API de pago es más eficiente. A $0.14/M en V4-Flash, 10,000 llamadas con 2K de contexto y 500 de salida cuestan ~$2.80.
Cuándo pasar a la API de pago
Considera escalar cuando:
- Alcanzas límites de velocidad varias veces al día.
- Encadenas varios proveedores gratuitos para cubrir la carga.
- Necesitas latencia predecible o SLAs.
La recarga mínima en platform.deepseek.com es de $2. Consulta la guía de precios de DeepSeek V4.
Preguntas frecuentes
¿Alguna ruta es permanentemente gratuita?
No. Los niveles gratuitos pueden cambiar o desaparecer. Úsalos solo para prototipos.
¿OpenRouter :free ejecuta el V4 real?
Sí, con límites de velocidad estrictos. La calidad es igual, el rendimiento puede variar.
¿Puedo usar la salida gratuita en un producto comercial?
Revisa los términos de cada proveedor. OpenRouter permite uso comercial dentro del límite; HF también, pero más restringido. DeepSeek sigue sus propios términos.
¿Qué ruta gratuita tiene la mejor latencia?
El crédito de prueba de DeepSeek, seguido de OpenRouter. HF y Chutes varían.
¿Puedo autoalojar V4 gratis?
Sí, la licencia es MIT. El costo es solo el hardware. Consulta cómo ejecutar DeepSeek V4 localmente.
¿Cómo rastreo qué ruta gratuita usé hoy?
Usa Apidog y activa usage en el visor de respuestas. La mayoría de agregadores también tienen panel de uso.

Top comments (0)