TL;DR
DeepSeek V4 es accesible mediante una interfaz de chat web y una API compatible con OpenAI. Para usar la API: crea una clave, utiliza autenticación Bearer y envía solicitudes al endpoint de chat. Usa temperatura 0.2 para código y especificaciones; 0.5 para tareas creativas. Divide tareas complejas en pasos secuenciales, no un solo prompt grande. Valida tu integración con Apidog antes de construir.
Introducción
DeepSeek V4 se desempeña bien en codificación, razonamiento y redacción técnica. El modelo sigue instrucciones con temperatura baja, genera código limpio con poca salida extra y responde bien a restricciones explícitas en los prompts.
En esta guía verás cómo comenzar con la interfaz web, configurar el acceso por API y usar el modelo en flujos de trabajo de codificación.
Comenzando con la interfaz web
La interfaz web es la forma más rápida de probar las capacidades de V4 antes de hacer la integración por API.
Obteniendo acceso:
- Ve a chat.deepseek.com
- Inicia sesión con tu cuenta
- Selecciona V4 en la barra lateral de modelos
Cómo estructurar los prompts:
V4 responde mejor a instrucciones directas y específicas. Omite introducciones innecesarias. Indica lo que necesitas y especifica los límites:
- "Escribe una función de Python que…" (mejor que "¿Puedes ayudarme con…?")
- "Mantén la implementación por debajo de 100 líneas" si el tamaño importa
- "Genera solo el código, sin explicación" si no quieres comentarios
- "Enumera cualquier suposición que estés haciendo" para transparentar decisiones implícitas
Guía de temperatura:
La interfaz web no permite ajustar la temperatura. Para la API:
-
0.2— Código, especificaciones, salidas estructuradas -
0.5— Variaciones y exploración de alternativas -
0.7+— Escritura creativa, brainstorming
Consejo para conversaciones largas:
El contexto se acumula en hilos extensos. Si las respuestas se vuelven vagas o poco claras, comienza un nuevo hilo. V4 rinde mejor con contexto fresco y enfocado.
Configuración de la API
Paso 1: Crear una clave de API
- Ve a platform.deepseek.com
- Accede a "Claves de API" (API Keys)
- Crea una nueva clave y cópiala (solo se muestra una vez)
- Guárdala como variable de entorno:
export DEEPSEEK_API_KEY="your-api-key-here"
Paso 2: Probar con curl
El endpoint de DeepSeek V4 es compatible con OpenAI:
curl https://api.deepseek.com/v1/chat/completions \
-H "Authorization: Bearer $DEEPSEEK_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-v4",
"messages": [{"role": "user", "content": "Write a Python function that sorts a list of dictionaries by a specified key."}],
"temperature": 0.2
}'
Paso 3: Integración con Python
from openai import OpenAI
client = OpenAI(
api_key="your-api-key",
base_url="https://api.deepseek.com/v1"
)
response = client.chat.completions.create(
model="deepseek-v4",
messages=[
{"role": "system", "content": "You write clean, minimal Python. No explanatory prose unless asked."},
{"role": "user", "content": "Write a function that renames screenshot files based on their creation timestamp."}
],
temperature=0.2
)
print(response.choices[0].message.content)
La librería oficial de OpenAI funciona con la API de DeepSeek porque el endpoint es compatible.
Prueba con Apidog
Probar la API en Apidog antes de integrarla ayuda a identificar problemas de formato de respuesta.
Configuración del entorno:
- Abre Apidog y crea un nuevo proyecto
- Ve a "Entornos" (Environments) y crea "DeepSeek Production"
- Agrega variable: Nombre =
DEEPSEEK_API_KEY, Tipo = Secreto (Secret), Valor = tu clave
Crea una solicitud de prueba:
POST https://api.deepseek.com/v1/chat/completions
Authorization: Bearer {{DEEPSEEK_API_KEY}}
Content-Type: application/json
{
"model": "deepseek-v4",
"messages": [
{
"role": "system",
"content": "You are a coding assistant. Respond only with code unless asked for explanation."
},
{
"role": "user",
"content": "{{user_prompt}}"
}
],
"temperature": 0.2,
"max_tokens": 2000
}
Añade aserciones:
Status code is 200
Response body has field choices
Response body, field choices[0].message.content is not empty
Prueba el modo de streaming:
Para respuestas de streaming en tiempo real:
{
"model": "deepseek-v4",
"messages": [...],
"stream": true,
"temperature": 0.2
}
Apidog soporta streaming y permite verificar que el contenido final se ensamble correctamente.
Primera tarea de codificación: el flujo de trabajo de automatización
Como primera prueba, evalúa V4 con un script de automatización de archivos. Esto permite comprobar:
- Si el modelo entiende requisitos implícitos
- Cómo maneja operaciones del sistema de archivos
- Si solicita aclaraciones o asume detalles
Estructura de prompts para tareas de codificación:
Divide la tarea en fases secuenciales:
Fase 1: Evaluación de riesgos
I want to write a Python script that renames files in a folder based on their creation date.
Before you write any code, list the risks and edge cases I should handle.
Fase 2: Plan de implementación
Now write a step-by-step implementation plan. Don't write code yet.
Fase 3: Código
Write the Python script. Requirements:
- Under 120 lines
- Handle the edge cases you listed
- Add a --dry-run flag that shows what would be renamed without making changes
- No external dependencies beyond the standard library
Fase 4: Pruebas
Write pytest tests for the main renaming logic. Mock the file system.
Este enfoque por fases produce resultados más claros y estructurados que un solo prompt.
Fortalezas y limitaciones del modelo
Puntos fuertes de V4:
- Sigue requisitos de formato de manera confiable con baja temperatura
- Maneja instrucciones concisas y directas sin necesidad de contexto extra
- Identifica casos extremos si se le pide explícitamente
- Produce código mínimo y sin boilerplate innecesario
Precauciones:
- V4 no reemplaza la revisión de código: revisa siempre lo que genera
- Scripts complejos funcionan mejor si se dividen en pasos pequeños
- Para refactorizaciones grandes en múltiples archivos, modelos como Claude Opus 4.6 o GPT-5 pueden ser más predecibles
- A temperaturas altas, las respuestas pueden tener errores plausibles; valida usando baja temperatura
Límites de tasa y precios
Revisa los límites actuales en platform.deepseek.com. Los precios de DeepSeek son competitivos. Para flujos por lotes donde el costo por token es clave, DeepSeek V4 ofrece un buen valor.
Para uso en producción, implementa:
- Reintentos con backoff exponencial para errores 429 (rate limit)
- Logging de solicitudes para rastrear el consumo de tokens
- Validación de la salida antes de usar el código generado
Preguntas frecuentes
¿DeepSeek V4 es compatible con OpenAI?
Sí. El endpoint de finalización de chat sigue el formato de la API de OpenAI. Solo cambia la URL base y la clave de API.
¿Cuál es la ventana de contexto?
DeepSeek V4 soporta una ventana de contexto grande, adecuada para revisión de código a nivel repositorio. Consulta la documentación para el límite exacto.
¿Puedo usar DeepSeek V4 para tareas que no son de codificación?
Sí. Es útil en redacción, análisis e investigación. Su salida estructurada y seguimiento de instrucciones también aplica fuera de la programación.
¿Cómo se compara V4 con Claude Opus 4.6 para codificación?
En benchmarks como SWE-bench, Claude Opus 4.6 lidera con 80.9%. DeepSeek V4 es fuerte en tareas de múltiples archivos y gran contexto. En la práctica, ambos son capaces; la diferencia principal está en el costo y casos extremos.
¿La API soporta la llamada a funciones?
Sí. DeepSeek V4 soporta la llamada a funciones en el formato de OpenAI, compatible con workflows basados en el SDK de OpenAI.
Top comments (0)