OpenAI lanzó GPT-5.5 el 23 de abril de 2026 y, como parte del lanzamiento, extendió Codex a todos los planes de ChatGPT, incluidos Free y Go, por tiempo limitado. Esa única línea en el anuncio es el camino gratuito más rápido al nuevo modelo: instala la CLI de Codex, inicia sesión con una cuenta de ChatGPT y maneja GPT-5.5 desde la terminal sin clave API ni tarjeta de crédito.
Esta guía te muestra cómo instalar, autenticar, seleccionar modelos, gestionar límites y conectar Codex a un flujo de trabajo de codificación real. Para una visión general del modelo, revisa Qué es GPT-5.5. Para otras rutas gratuitas (créditos de prueba, agregadores), consulta nuestra guía de GPT-5.5 gratis.
TL;DR
- La CLI de Codex ejecuta GPT-5.5 en tu repositorio local con una ventana de contexto de 400K.
- ChatGPT Free, Go, Plus, Pro, Business, Enterprise y Edu tienen acceso a Codex; Free y Go son por tiempo limitado.
- Instala con
npm install -g @openai/codexobrew install codex. - Inicia sesión por OAuth en navegador, o usa flujo de código de dispositivo en servidores/headless.
- Cambia de modelo durante la sesión con
/model gpt-5.5; verifica cuota con/status. - Combina la CLI con Apidog para pre-construir y probar llamadas a la API que luego usarás en producción.
Por qué Codex es el camino gratuito más fácil
La API de OpenAI es solo de pago por defecto; GPT-5.5 cuesta $5/millón de tokens de entrada y $30/millón de salida. Codex lo simplifica: envuelve el modelo en una CLI autenticada mediante ChatGPT en vez de una clave API. Tu plan define los límites; el modelo es GPT-5.5 real.
Instalar la CLI de Codex
Dos opciones rápidas:
# npm (multiplataforma)
npm install -g @openai/codex
# o Homebrew (macOS / Linux)
brew install codex
Verifica la instalación:
codex --version
Asegúrate de ver una versión >= 0.28.0; versiones previas no incluyen GPT-5.5.
Autenticarse con una cuenta de ChatGPT
Al ejecutar Codex por primera vez, elige un método de autenticación:
OAuth del navegador (máquinas locales)
codex
Se abrirá una pestaña en tu navegador. Inicia sesión con el correo de ChatGPT. La sesión se guarda para futuros usos.
Flujo de código de dispositivo (equipos sin pantalla/servidores)
codex login --device-auth
Verás un código y una URL. Abre la URL en otro dispositivo, pega el código y confirma. La máquina sin pantalla completa el inicio al recibir confirmación.
Respaldo de clave API
Si prefieres usar tu clave API de pago:
printenv OPENAI_API_KEY | codex login --with-api-key
Esto carga la cuenta de facturación de la clave, útil si quieres que el uso compute para una organización.
Seleccionar GPT-5.5 como modelo
Por defecto, Codex usa el modelo "recomendado". En Free y Go puede que debas cambiarlo manualmente.
Durante la sesión
/model gpt-5.5
Esto muestra el modelo activo y los límites de tu plan.
Al lanzar Codex
codex --model gpt-5.5
Verificar cuota
/status
Obtén los presupuestos semanales, ventana de contexto y expiración de prueba (en Free/Go).
Primera sesión: ejemplo práctico
Codex arranca una UI de terminal que puede leer tu repositorio, ejecutar comandos y editar archivos. Ejemplo rápido:
cd ~/Projects/my-app
codex --model gpt-5.5
Dentro de la sesión:
> Leer README.md, luego abrir scripts/deploy.sh y resumirlo en cinco puntos.
Codex abre el archivo, resume e imprime. Seguimiento:
> Refactorizar deploy.sh para que salga en cualquier paso fallido y agregar un flag de prueba en seco. Mantener compatibilidad anterior.
GPT-5.5 propone un diff, espera aprobación y lo aplica. Ejecuta pruebas en línea:
> Ejecutar la suite de pruebas de despliegue y mostrarme el caso fallido.
La CLI transmite la salida. Si algo falla, pide al modelo que lo repare; repite hasta éxito.
Esta es la carga de trabajo para la que GPT-5.5 está optimizado. Según la release oficial de OpenAI, la mejora de SWE-bench (88.7% vs 74% en GPT-5.4) se nota justo aquí: trabajo multifichero, uso de herramientas, y operación vía terminal.
Qué aporta Codex sobre llamadas API directas
Cuatro ventajas clave:
- Contexto de repositorio: Codex indexa el árbol de archivos y pasa identificadores, no solo texto pegado. La ventana de 400K tokens permanece libre para llamadas y salida.
- Ejecución de comandos aprobada: El modelo sugiere comandos, tú apruebas antes de ejecutar. Evita que la IA ejecute código inesperado.
- Previsualización de diffs: Antes de modificar archivos ves el diff unificado; puedes rechazar, aceptar o editar.
- Persistencia de sesión: Cada proyecto guarda historial. Abre la CLI mañana y sigue donde la dejaste.
Sin Codex, tendrías que construir todo esto sobre la API. Consulta nuestra guía de la API de GPT-5.5 si quieres la versión básica, pero para codificación diaria la CLI es más ergonómica.
Límites de velocidad y topes por plan
Los límites cambian, pero al 23 de abril de 2026 son:
| Plan | Acceso a GPT-5.5 en Codex | Límite semanal |
|---|---|---|
| Gratis | Sí (tiempo limitado) | Estricto; tamaño prototipo |
| Go | Sí (tiempo limitado), 2× límites de Gratis | Pequeño |
| Plus | Sí | Medio |
| Pro | Sí, los límites más altos para usuarios individuales | Alto |
| Empresarial | Sí, basado en puestos | Alto por puesto |
| Empresarial / Educativo | Sí, basado en contrato | Personalizado |
Cuando alcanzas el tope, Codex devuelve un error específico del plan. Usa /status para ver el conteo exacto.
Integración con editores e IDE
El mismo inicio de sesión de Codex habilita la extensión de VS Code, JetBrains y la app cloud de Codex. Tras login por CLI, la extensión reusa las credenciales en caché.
Para usuarios de Apidog, el flujo recomendado es:
- Prototipa una solicitud en la CLI de Codex (
ejecutar la solicitud de GPT-5.5 contra este archivo). - Exporta la solicitud y salida a una colección de Apidog para compartir con tu equipo.
- Cambia la ruta de Codex a llamada API directa cuando el contrato esté listo y pases a pago.
Consulta Apidog en VS Code para integrar la colección en tu editor.
Mantén el flujo seguro en Free y Go
Dos recomendaciones desde el primer día:
-
Aprueba siempre las escrituras de archivos. En
~/.codex/config.json, pon"autoApproveWrites": false. Por defecto es seguro en Free, pero en Go puede auto-aprobar diffs triviales. -
Limita el espacio de trabajo. Ejecuta
codexsolo desde el directorio del proyecto. El alcance de lectura parte del CWD; correrlo en~da acceso a toda tu carpeta personal.
OpenAI sometió GPT-5.5 a auditoría de seguridad externa antes del lanzamiento (detalle en CNBC). Aun así, la CLI corre en tu máquina: revisa siempre los diffs antes de aplicar.
Cuándo pasar de la ruta gratuita
Codex Free y Go son temporales. Considera actualizar si:
- Excedes la cuota semanalmente. Si es trabajo real, pásate a Plus o Pro.
- Necesitas API directa. Si tu flujo supera la CLI, consulta la guía de migración a API.
- Tu equipo requiere facturación por puesto. Usa Business o Enterprise según el desglose de precios.
El modelo es el mismo; solo cambia la facturación y la superficie de uso.
Preguntas frecuentes
¿Codex también ejecuta GPT-5.5 Pro?
No, Pro no está disponible en Codex. Solo el modelo estándar GPT-5.5; Pro está en ChatGPT y (próximamente) API.
¿Puedo usar Codex sin cuenta de ChatGPT?
No. Requiere login de ChatGPT o clave API.
¿Cuánto durará el acceso Free y Go?
OpenAI lo calificó como "por tiempo limitado". Espera semanas o pocos meses; planea actualizar si lo usas mucho.
¿Codex funciona sin conexión?
No. Cada petición va a la infraestructura de OpenAI.
¿En qué se diferencia de la app web de ChatGPT?
Codex opera en terminal, con acceso al sistema de archivos local, shell y contexto de repositorio. La web no tiene nada de eso.


Top comments (0)