OpenAI lanzó GPT-5.5 el 23 de abril de 2026, solo seis semanas después de GPT-5.4. El modelo apunta a tareas de codificación de múltiples pasos, uso avanzado de ordenadores e investigación profunda. Ya está disponible en ChatGPT y Codex, con la API pública llegando próximamente.
Si estás evaluando si migrar a GPT-5.5, esta guía detalla el modelo, las diferencias con 5.4, benchmarks clave, cómo usarlo hoy y limitaciones técnicas a considerar.
Para implementaciones directas, consulta nuestra guía de la API de GPT-5.5, la guía de acceso gratuito, la ruta gratuita de Codex y un desglose de precios dedicado. Si quieres estar listo para el lanzamiento de la API pública, descarga Apidog y prepara tu colección desde ahora.
En resumen
- GPT-5.5 es el modelo más avanzado de OpenAI para codificación y razonamiento, lanzado el 23 de abril de 2026.
- Logra 88.7 % en SWE-bench y 92.4 % en MMLU, y reduce las alucinaciones un 60 % frente a GPT-5.4.
- Tres variantes: GPT-5.5 estándar, GPT-5.5 Thinking (razonamiento extendido), GPT-5.5 Pro (máxima precisión).
- Disponible en ChatGPT Plus, Pro, Business, Enterprise, Edu y en Codex para todos los planes, con prueba gratuita temporal en Free y Go.
- El acceso API se libera progresivamente; por ahora puedes acceder vía Codex CLI mientras llega el endpoint completo de Responses y Chat Completions.
- API: $5/M tokens entrada, $30/M tokens salida (el doble de 5.4, pero con mayor eficiencia).
Qué es realmente GPT-5.5
GPT-5.5 es el modelo flagship de la familia GPT-5: superior a GPT-5.4, 5.4-mini y 5.3. Su nombre clave es "Spud". Está optimizado para tareas complejas y diferenciadas por tres variantes:
- GPT-5.5: versión estándar, rápida y eficiente en tokens.
- GPT-5.5 Thinking: extiende el presupuesto de razonamiento, ideal para lógica pesada, informes densos y debugging multi-archivo. Límite: ~3,000 mensajes/semana en ChatGPT.
- GPT-5.5 Pro: máxima precisión para tareas críticas. Solo disponible en Pro, Business y Enterprise.
Debajo, el modelo prioriza planificación, selección de herramientas y auto-verificación de la salida, reduciendo prompts y errores en outputs complejos.
Qué cambió de GPT-5.4
Actualización incremental (no generacional), con mejoras claras en benchmarks y coste:
| Capacidad | GPT-5.4 | GPT-5.5 |
|---|---|---|
| SWE-bench | ~74 % | 88.7 % |
| MMLU | 91.1 % | 92.4 % |
| Tasa de alucinaciones | línea base | −60 % |
| Ventana de contexto (API) | 1.05 M | 1 M (Codex: 400 K) |
| Precio API entrada | $2.50 / M | $5.00 / M |
| Precio API salida | $15.00 / M | $30.00 / M |
| Uso de ordenador | Mejorando | Grado de producción |
| Cadenas de herramientas multi-step | Preferido de una sola ejecución | Bucles autónomos completos |
- El salto en SWE-bench acerca GPT-5.5 a la productividad de un ingeniero senior en tareas reales de código.
- El doble de precio se compensa parcialmente por menor consumo de tokens según pruebas independientes (fuente).
- Mejoras en cadenas multi-step y uso autónomo de herramientas.
Para qué es bueno
GPT-5.5 está optimizado para:
- Codificación agéntica: Lectura de repositorios, apertura de archivos, ejecución de tests, iteración autónoma. Ideal para tareas similares a SWE-bench.
- Uso de ordenador: Automatización de navegador, shell, extracción de datos, manejo de formularios y recuperación ante errores.
- Investigación profunda: Razonamiento largo, búsqueda web avanzada, resumen de fuentes conflictivas. Usar modo Thinking para estos casos.
- Generación de documentos y hojas de cálculo: Menos errores, fórmulas más precisas, mejor estructura en outputs complejos.
No es recomendable para tareas de bajo coste como clasificación masiva, embeddings o resúmenes voluminosos. Para esos escenarios, GPT-5.4-mini o 5.3 siguen siendo superiores en coste/eficiencia.
Disponibilidad hoy
Acceso segmentado por plan (actualizado al 23 de abril de 2026):
| Superficie | Plan | Acceso |
|---|---|---|
| ChatGPT | Gratis | GPT-5.3 predeterminado, sin GPT-5.5 |
| ChatGPT | Go | GPT-5.3 predeterminado, sin GPT-5.5 |
| ChatGPT | Plus | GPT-5.5 estándar + Thinking (3,000/semana) |
| ChatGPT | Pro | Estándar + Thinking + Pro |
| ChatGPT | Business | Estándar + Thinking + Pro |
| ChatGPT | Enterprise / Edu | Estándar + Thinking + Pro |
| Codex | Todos los planes | GPT-5.5 con contexto 400K; Free y Go en prueba temporal |
| API | Responses / Chat Completions | "Muy pronto"; aún no disponible general |
Tip práctico: Puedes usar GPT-5.5 hoy mismo a través de Codex CLI, sin esperar la API pública.
Precio en una línea
- API GPT-5.5: $5/M tokens entrada, $30/M salida.
- API GPT-5.5 Pro: $30/M entrada, $180/M salida (igual que 5.4 Pro).
- Batch y Flex: 50% de la tarifa estándar.
- Prioridad: 2.5× tarifa estándar.
- Codex CLI: Gratis en Plus, Pro, Business, Enterprise, Edu, Go y temporalmente Free (con límites semanales).
Para detalles y estimaciones de costes, revisa el artículo de precios de GPT-5.5.
Cómo probarlo hoy
Pasos prácticos para desarrolladores:
-
ChatGPT (plan de pago):
- Accede a ChatGPT y selecciona GPT-5.5 en el selector de modelo. Listo para usar.
-
Codex CLI:
- Instala con
npm install -g @openai/codexobrew install codex. - Ejecuta
codexe inicia sesión con tu cuenta de ChatGPT. - Cambia el modelo:
/model gpt-5.5 - Instala con
- Free y Go incluidos temporalmente.
- Guía completa.
-
Prepara tu colección para la API:
- La API pública estará disponible pronto.
- Construye tus requests ahora en Apidog para hacer el switch cuando el modelo esté activo.
- Consulta la guía de la API de GPT-5.5 para la estructura esperada del endpoint.
Seguridad y red-teaming
GPT-5.5 ha sido testeado por terceros para riesgos cibernéticos y biológicos. Destaca:
- Rechazo más estricto en prompts de doble uso.
- Lanzamiento API ligado a salvaguardas adicionales.
- Si construyes agentes orientados al consumidor (especialmente con acceso a navegador), implementa políticas más restrictivas que en 5.4.
¿Deberías cambiar?
Heurísticas para la toma de decisión:
- Agentes de codificación: Sí, cambia ya. El salto en productividad es tangible, y Codex ya soporta GPT-5.5.
- Inferencias de alto volumen: Mantén 5.4-mini como predeterminado y usa 5.5 solo en casos complejos.
- Aplicaciones consumidor: Espera la API, luego haz pruebas A/B. El coste es mayor, y la reducción de alucinaciones solo aporta si tu caso lo sufría.
Flujo de decisión completo en el desglose de precios.
Preguntas frecuentes
¿Está ya disponible GPT-5.5 en la API?
Aún no para llamadas directas con clave (al 23 de abril de 2026). Hoy funciona vía Codex CLI tras login en ChatGPT.
¿Cuál es la ventana de contexto?
1 millón de tokens en ChatGPT y la próxima API; 400K tokens en Codex CLI.
¿Diferencia entre GPT-5.5 Thinking y Pro?
Thinking: más presupuesto de razonamiento sobre el modelo estándar.
Pro: variante de máxima precisión, solo para Pro, Business y Enterprise.
¿Es GPT-5.5 gratis?
En ChatGPT, solo planes de pago. En Codex, temporalmente gratis para Free y Go (con límites). Consulta la guía gratuita.
¿Puedo seguir usando GPT-5.4?
Sí, sigue disponible y es más barato ($2.50 / $15 por millón de tokens). Recomendado para pipelines sensibles al coste.

Top comments (0)