OpenAI duplicó el precio por token en la línea GPT-5 con el lanzamiento de GPT-5.5 el 23 de abril de 2026. La entrada pasa de $2.50 a $5.00 por millón de tokens. La salida pasa de $15.00 a $30.00 por millón. El precio Pro se mantiene fijo en $30 / $180. Ese es el titular; los detalles son donde reside el costo real.
Esta guía te ayuda a entender y calcular los costos de GPT-5.5 antes de migrar, revisando la API estándar, Batch, Flex, Priority, precios Pro, límites de Codex y fórmulas prácticas para estimar tu gasto real.
Para detalles del modelo, revisa Qué es GPT-5.5. Para la guía de integración, consulta Cómo usar la API de GPT-5.5.
En resumen
| Superficie | Entrada / M | Salida / M |
|---|---|---|
| API estándar de GPT-5.5 | $5.00 | $30.00 |
| API Pro de GPT-5.5 | $30.00 | $180.00 |
| GPT-5.5 por lotes (50 % desc.) | $2.50 | $15.00 |
| GPT-5.5 flexible (50 % desc.) | $2.50 | $15.00 |
| GPT-5.5 prioritario (2.5×) | $12.50 | $75.00 |
| API estándar de GPT-5.4 | $2.50 | $15.00 |
| API de GPT-5.4-mini | $0.25 | $2.00 |
Efecto neto: GPT-5.5 cuesta el doble que GPT-5.4 por token, pero OpenAI señala una eficiencia del token que puede mejorar el rendimiento en un ~20 %.
Los números principales
OpenAI publicó los precios en la página de precios de la API el día del lanzamiento.
- GPT-5.5: $5.00 por millón de tokens de entrada, $30.00 por millón de tokens de salida.
- GPT-5.5 Pro: $30.00 por millón de tokens de entrada, $180.00 por millón de tokens de salida.
- Ventana de contexto: 1 millón de tokens en ambas variantes. Los tokens de razonamiento cuentan para la ventana y la facturación de salida.
Batch, Flex y Priority
OpenAI ofrece tres modalidades con precios alternativos para distintas necesidades:
API por lotes
Encola solicitudes mediante el endpoint Batch y obtén un 50 % de descuento respecto al precio estándar. Respuestas en menos de 24 horas. Ideal para:
- Evaluaciones nocturnas de datasets completos.
- Rellenos y reprocesamientos históricos.
- Flujos donde la latencia no es crítica.
Usa Batch para cargas offline y paga $2.50 / $15.00 por millón de tokens, igual que el precio estándar de GPT-5.4.
Procesamiento flexible (Flex)
Flex aplica el mismo 50 % de descuento, con tiempos de espera que varían entre segundos y minutos. Útil si puedes tolerar latencias impredecibles pero buscas precios reducidos y respuestas casi síncronas.
Procesamiento prioritario
Priority eleva el precio a 2.5× el estándar ($12.50 / $75.00 por millón de tokens) y ofrece:
- Mayor velocidad de respuesta
- Límites de tasa superiores
- Casi cero tiempo de cola
Úsalo para aplicaciones en vivo donde la latencia impacta en la experiencia de usuario.
Cálculo de costos del modo de pensamiento
El modo de pensamiento ajusta el parámetro reasoning.effort y afecta la cantidad de tokens usados, no el precio por token. Considera estos multiplicadores según el esfuerzo:
| Esfuerzo | Multiplicador de tokens de salida | Cuándo usar |
|---|---|---|
bajo |
1× | Llamadas rutinarias |
medio |
1.3–2× | Codificación multi-paso, generación estructurada |
alto |
2–4× | Investigación profunda, revisión crítica |
muy alto |
3–8× | Agentes con cadenas de herramientas, planificación densa |
Ejemplo: Una llamada muy alto con prompt largo puede consumir 20K tokens de razonamiento. A $30/M, son $0.60 solo en razonamiento.
Tip: Presupuesta por carga de trabajo, no por llamada individual.
Precios de Codex
El acceso a Codex depende del plan de ChatGPT, no del uso por token. Estructura al 23 de abril de 2026:
| Plan | Acceso a Codex | GPT-5.5 | Notas |
|---|---|---|---|
| Gratis | Sí (tiempo limitado) | Sí | Límites semanales estrictos |
| Go | Sí (tiempo limitado) | Sí | 2× límites del plan Gratis |
| Plus ($20/mes) | Sí | Sí | Límites estándar |
| Pro ($200/mes) | Sí | Sí + Modo pensamiento | Límites más altos |
| Business | Sí | Sí | Basado en asientos |
| Empresarial/Educativo | Sí | Sí | Basado en contrato |
Para desarrolladores que trabajan intensivamente en terminal, Plus o Pro es la opción más rentable. Consulta la guía de ruta gratuita para empezar sin costo.
Comparación: GPT-5.5 vs el resto de la línea
Elige modelo según el tipo de salida que necesitas:
| Modelo | Entrada / M | Salida / M | Costo por 1K tokens de salida |
|---|---|---|---|
| GPT-5.4-mini | $0.25 | $2.00 | $0.0020 |
| GPT-5.4 | $2.50 | $15.00 | $0.0150 |
| GPT-5.5 | $5.00 | $30.00 | $0.0300 |
| GPT-5.5 Pro | $30.00 | $180.00 | $0.1800 |
Decisión rápida:
- Alto volumen, bajo riesgo: GPT-5.4-mini
- Producción estándar: GPT-5.4
- Codificación compleja y trabajo agéntico: GPT-5.5
- Salida crítica: GPT-5.5 Pro
Ejemplo práctico: costo del agente de codificación por tarea
Supón una tarea típica de codificación agéntica en GPT-5.5 con reasoning.effort: "medium":
- Tokens de entrada: ~15,000 (contexto + prompt)
- Tokens de salida: ~3,000 (código + explicación)
- Tokens de razonamiento: ~6,000 (esfuerzo medio)
Cálculo de costos con precio estándar:
Entrada: 15K × $5.00 / M = $0.075
Salida: (3K + 6K) × $30.00 / M = $0.27
Total: $0.345 por tarea
En GPT-5.4:
Entrada: 15K × $2.50 / M = $0.0375
Salida: 9K × $15.00 / M = $0.135
Total: $0.1725 por tarea
La actualización a GPT-5.5 se justifica cuando la mayor tasa de éxito reduce los reintentos: si una de cada ocho tareas en GPT-5.4 necesita reescritura manual, GPT-5.5 puede resultar más barato.
Controles de costos recomendados desde el primer día
-
Límites estrictos de
max_output_tokens. Predetermina 2,000 salvo necesidad explícita. - Esquemas JSON estrictos. Minimiza reintentos por salida malformada.
- Enrutamiento por dificultad. Envía solicitudes simples a GPT-5.4-mini, las complejas a GPT-5.5. Un enrutador básico ahorra más que optimizar prompts.
- Usa Batch para procesos offline. Ahorra 50 % en evaluaciones, reports, etc.
-
Monitorea
usage.reasoning_tokens. Genera alertas ante incrementos inesperados.
Estimación de costo mensual por plan
Orientación para elegir plan de ChatGPT según su costo mensual:
| Plan | Precio mensual | Mejor uso |
|---|---|---|
| Gratis | $0 | Probar GPT-5.5 vía Codex sin compromiso |
| Go | $4 / mes | Estudiantes y usuarios ligeros |
| Plus | $20 / mes | Desarrolladores individuales (Codex + ChatGPT) |
| Pro | $200 / mes | Usuarios avanzados (Modo pensamiento y Pro) |
| Business | $25 / asiento / mes | Equipos con espacios compartidos |
| Empresarial/Educativo | Personalizado | Contrato con SLA |
Si consumes más de ~4 millones de tokens de salida al mes, Pro en ChatGPT + CLI de Codex es más rentable que el pago por uso, siempre que la carga encaje en la ventana de contexto de 400K de la CLI.
Señales de cambio de precios a observar
- GA de la API GPT-5.5. Los precios pueden bajar si la competencia aumenta.
- Democratización del modelo Pro. Históricamente, OpenAI baja el precio Pro entre 3-6 meses tras el lanzamiento. No lo des por fijo ni por temporal.
Preguntas frecuentes
¿El almacenamiento en caché reduce el costo de entrada?
Sí. Los tokens cacheados se facturan a una fracción de la tarifa estándar (ver precios). Cachea prompts y contextos reutilizables.¿Hay descuento por volumen?
No hay uno público. Contratos empresariales pueden tener tarifas especiales; contacta ventas si tu gasto anual es alto.¿El modo de pensamiento cuesta extra?
No. Solo usa más tokens, no cambia la tarifa por token.¿La CLI de Codex se factura separado de la API?
Solo si usas clave API. Con login de ChatGPT, se factura al plan; con API key, por uso.¿Cuál es la forma más barata de probar GPT-5.5?
Usa el plan Gratis o Go + CLI de Codex. Consulta la guía gratuita para más detalles.
Top comments (0)