DEV Community

Cover image for API GPT-5.5 y Todos los Modelos OpenAI Gratis e Ilimitados
Roobia
Roobia

Posted on • Originally published at apidog.com

API GPT-5.5 y Todos los Modelos OpenAI Gratis e Ilimitados

El GPT-5.5 de OpenAI se distribuye con una API de pago: $5 por millón de tokens de entrada y $30 por millón de tokens de salida. Si estás construyendo un proyecto secundario, una demo de hackathon o una aplicación pública gratuita, ese coste puede bloquear el lanzamiento antes de escribir la primera integración. Una alternativa práctica es usar Puter.js: expone modelos de OpenAI como GPT-5.5, GPT-5.5 Pro, variantes GPT-5.x, GPT-Image-2, DALL-E y OpenAI TTS sin que tengas que gestionar una clave de OpenAI. El uso se carga al usuario final mediante su cuenta de Puter; tú no pagas la factura de tokens.

Prueba Apidog hoy

En resumen

  • Puter.js permite usar modelos de OpenAI desde el navegador sin clave API, sin cuenta de OpenAI y sin backend propio.
  • Los modelos de texto compatibles incluyen gpt-5.5, gpt-5.5-pro, gpt-5.4, gpt-5, gpt-5-mini, o1, o3, gpt-4.1, gpt-4o, además de variantes de chat y códec.
  • Para imágenes puedes usar gpt-image-2, gpt-image-1.5, dall-e-3.
  • Para texto a voz puedes usar gpt-4o-mini-tts, tts-1, tts-1-hd.
  • La integración mínima requiere una etiqueta <script> y una llamada a puter.ai.chat.
  • Streaming, visión, generación de imágenes, texto a voz y llamada a funciones funcionan desde el navegador.
  • El usuario final cubre su consumo desde Puter; tu aplicación evita exposición directa a la facturación de OpenAI.
  • Usa Apidog para comparar prompts entre Puter y la API oficial de OpenAI cuando planifiques una migración.

Cómo funciona lo de "gratis ilimitado"

Puter.js cambia el modelo de facturación de los LLM. En vez de que tu aplicación use una clave de OpenAI y asuma cada coste de token, el usuario inicia sesión en Puter y el consumo se carga a su cuenta. Las cuentas nuevas de Puter obtienen crédito inicial; si el usuario necesita más uso, puede recargar.

Para ti como desarrollador, esto implica:

  • No gestionas claves de OpenAI. No hay secretos en el repositorio, variables de entorno ni rotación de claves.
  • No tienes límite de uso centralizado. Cada usuario opera con su propia cuenta de Puter.
  • No tienes exposición directa a la facturación. No recibes una factura de OpenAI por el uso de tus usuarios.

La contrapartida importante: Puter.js está pensado para aplicaciones de navegador. Si necesitas ejecutar tareas en backend, workers, webhooks o procesamiento por lotes sin sesión de usuario, la API oficial de OpenAI sigue siendo la opción adecuada.

Paso 1: Instala Puter.js

Para una página HTML, añade el script desde CDN:

<script src="https://js.puter.com/v2/"></script>
Enter fullscreen mode Exit fullscreen mode

Ejemplo mínimo:

<!DOCTYPE html>
<html lang="es">
<body>
  <script src="https://js.puter.com/v2/"></script>
</body>
</html>
Enter fullscreen mode Exit fullscreen mode

Si usas bundler, instala el paquete NPM:

npm install @heyputer/puter.js
Enter fullscreen mode Exit fullscreen mode

Importa puter en tu código:

import { puter } from '@heyputer/puter.js';
Enter fullscreen mode Exit fullscreen mode

Usa la versión CDN para prototipos, sitios estáticos, extensiones de navegador o demos rápidas. Usa NPM si tu aplicación ya tiene pipeline de build y quieres integrarlo con tu stack JavaScript.

Paso 2: Elige el modelo correcto

Selecciona el modelo según la tarea. La elección afecta latencia, calidad y coste para el usuario.

ID del modelo Cuándo usar
gpt-5.5-pro Razonamiento profundo, agentes de codificación, análisis complejo
gpt-5.5 Uso general diario; buen equilibrio entre calidad y coste
gpt-5.4-nano Clasificación o texto de alto volumen con menor coste
gpt-5.4-mini Interfaces de chat y tareas intermedias
gpt-5.3-codex Tareas específicas de código
o3 Cadenas de razonamiento complejas
o1-pro Planificación agéntica de varios pasos
gpt-4.1, gpt-4o, gpt-4o-mini Base estable y conocida

Para generación de imágenes:

  • gpt-image-2: modelo más reciente, rápido y con salida nítida.
  • gpt-image-1.5, gpt-image-1, dall-e-3, dall-e-2: opciones anteriores pero estables.

Para texto a voz:

  • gpt-4o-mini-tts: opción más reciente y natural.
  • tts-1, tts-1-hd: TTS clásico con menor latencia.

Paso 3: Haz tu primera llamada a GPT-5.5

La llamada mínima de chat se hace con puter.ai.chat:

<!DOCTYPE html>
<html lang="es">
<body>
  <script src="https://js.puter.com/v2/"></script>

  <script>
    puter.ai.chat(
      "Explica WebSockets en tres frases",
      { model: "gpt-5.5" }
    ).then(response => {
      puter.print(response);
    });
  </script>
</body>
</html>
Enter fullscreen mode Exit fullscreen mode

Abre el archivo en el navegador. Puter gestiona la autenticación del usuario y ejecuta la llamada al modelo. Si el usuario no tiene sesión iniciada, Puter le pedirá iniciar sesión o crear una cuenta gratuita.

No necesitas:

  • Clave API de OpenAI.
  • Backend intermedio.
  • Variable de entorno.
  • Endpoint propio para proxy.

Paso 4: Usa streaming para interfaces de chat

Para una UX de chat, no esperes a que termine toda la respuesta. Activa stream: true y consume los fragmentos conforme llegan:

const response = await puter.ai.chat(
  "Explica la teoría de la relatividad en detalle",
  {
    model: "gpt-5.5",
    stream: true,
  }
);

for await (const part of response) {
  puter.print(part?.text);
}
Enter fullscreen mode Exit fullscreen mode

En una interfaz real, en vez de imprimir con puter.print, añade cada fragmento a una burbuja de chat:

const bubble = document.querySelector("#assistant-message");

for await (const part of response) {
  if (part?.text) {
    bubble.textContent += part.text;
  }
}
Enter fullscreen mode Exit fullscreen mode

Esto permite que el usuario vea la respuesta aparecer progresivamente.

Paso 5: Procesa imágenes con visión

Puedes pasar una URL de imagen como segundo argumento. El modelo analizará la imagen y responderá según el prompt:

puter.ai.chat(
  "¿Qué ves en esta imagen? Describe colores, objetos y ambiente.",
  "https://assets.puter.site/doge.jpeg",
  { model: "gpt-5.5" }
).then(response => {
  puter.print(response);
});
Enter fullscreen mode Exit fullscreen mode

Casos de uso prácticos:

  • Generación de texto alternativo.
  • Análisis de capturas de pantalla.
  • QA visual.
  • OCR básico.
  • Herramientas de accesibilidad.
  • Clasificación de imágenes enviada por usuarios.

Paso 6: Genera imágenes desde texto

puter.ai.txt2img devuelve un elemento <img> con la imagen generada ya cargada:

puter.ai.txt2img(
  "Una ciudad futurista de noche, estilo cinematográfico, luces neón, lluvia",
  { model: "gpt-image-2" }
).then(imageElement => {
  document.body.appendChild(imageElement);
});
Enter fullscreen mode Exit fullscreen mode

Si quieres integrarlo en una UI:

<form id="image-form">
  <input id="prompt" placeholder="Describe la imagen" />
  <button type="submit">Generar</button>
</form>

<div id="result"></div>

<script src="https://js.puter.com/v2/"></script>
<script>
  const form = document.querySelector("#image-form");
  const input = document.querySelector("#prompt");
  const result = document.querySelector("#result");

  form.addEventListener("submit", async event => {
    event.preventDefault();

    result.textContent = "Generando imagen...";

    const image = await puter.ai.txt2img(input.value, {
      model: "gpt-image-2",
    });

    result.innerHTML = "";
    result.appendChild(image);
  });
</script>
Enter fullscreen mode Exit fullscreen mode

El coste de generación se carga al saldo de Puter del usuario. Para aplicaciones públicas, limita prompts vacíos, evita reintentos automáticos innecesarios y muestra al usuario cuándo una acción generará consumo.

Paso 7: Convierte texto a voz

La línea TTS de OpenAI se expone mediante puter.ai.txt2speech. La función devuelve un elemento <audio>:

puter.ai.txt2speech(
  "Bienvenido de nuevo. El saldo de tu cuenta es de $1,247.50.",
  {
    provider: "openai",
    model: "gpt-4o-mini-tts",
  }
).then(audio => {
  audio.setAttribute("controls", "");
  document.body.appendChild(audio);
});
Enter fullscreen mode Exit fullscreen mode

Úsalo para:

  • Indicaciones de voz.
  • Lectura de respuestas largas.
  • Narración de accesibilidad.
  • Onboarding de aplicaciones.
  • Locuciones de prototipos o demos.

Paso 8: Implementa llamada a funciones

Puter usa un formato compatible con el patrón de herramientas de OpenAI. Defines herramientas, el modelo solicita una llamada y tú ejecutas la función en tu aplicación.

Ejemplo:

const tools = [
  {
    type: "function",
    function: {
      name: "get_weather",
      description: "Obtiene el clima actual de una ciudad.",
      parameters: {
        type: "object",
        properties: {
          city: {
            type: "string",
            description: "Nombre de la ciudad",
          },
        },
        required: ["city"],
      },
    },
  },
];

const response = await puter.ai.chat(
  "¿Cuál es el clima en Tokio ahora mismo?",
  {
    model: "gpt-5.5",
    tools,
  }
);

const toolCalls = response.message.tool_calls;

if (toolCalls?.length) {
  const toolCall = toolCalls[0];

  console.log("Función:", toolCall.function.name);
  console.log("Argumentos:", toolCall.function.arguments);

  // Aquí ejecutas tu propia función:
  // const result = await getWeather(JSON.parse(toolCall.function.arguments));
}
Enter fullscreen mode Exit fullscreen mode

La parte importante: el modelo no ejecuta tu función. Solo devuelve la intención estructurada. Tú decides qué hacer con esa solicitud, validas argumentos y ejecutas código propio.

Para probar flujos basados en herramientas en entornos de producción, consulta las pruebas de servidor MCP en Apidog.

Paso 9: Controla temperatura y max_tokens

Pasa los parámetros estándar en el objeto de opciones:

const response = await puter.ai.chat(
  "Háblame de Marte",
  {
    model: "gpt-5.5",
    temperature: 0.2,
    max_tokens: 200,
  }
);
Enter fullscreen mode Exit fullscreen mode

Guía rápida:

  • temperature: 0.0 a 0.3: respuestas más deterministas y factuales.
  • temperature: 0.7 a 1.0: escritura más creativa.
  • max_tokens: límite máximo de salida.

Para una aplicación pública, define max_tokens por tipo de acción. Por ejemplo:

const LIMITS = {
  summary: 300,
  chat: 800,
  codeReview: 1200,
};

const response = await puter.ai.chat(
  userPrompt,
  {
    model: "gpt-5.5",
    temperature: 0.2,
    max_tokens: LIMITS.summary,
  }
);
Enter fullscreen mode Exit fullscreen mode

Esto mantiene el consumo del usuario más predecible.

Lo que obtienes y lo que no

Puter.js cubre muchos casos de uso, pero no reemplaza toda la superficie de la API oficial de OpenAI.

Obtienes:

  • Catálogo GPT-5.x, incluyendo 5.5, 5.5 Pro, 5.4 mini, nano y pro.
  • Modelos anteriores como GPT-4.1, GPT-4o, o1 y o3.
  • Generación de imágenes con GPT-Image-2 y DALL-E.
  • Texto a voz con modelos TTS de OpenAI.
  • Streaming.
  • Entrada de imagen.
  • Llamada a funciones.
  • Parámetros como temperature y max_tokens.
  • Integración directa en navegador sin backend.

Puede que no obtengas:

  • API de Responses.
  • Reducción de coste por caché de prompts.
  • API de Files para contexto de documentos subidos.
  • Uso limpio del lado del servidor sin sesión de navegador.
  • Cabeceras directas de rate limit de OpenAI.
  • Modo completo de salida estructurada con validación de esquema JSON.

Para flujos de producción avanzados, la API oficial de OpenAI sigue siendo la opción más completa. Para prototipos, sitios estáticos, extensiones y aplicaciones de navegador, Puter.js reduce mucha fricción inicial.

Cuándo usar Puter vs. OpenAI oficial

Usa Puter cuando:

  • Estás lanzando una aplicación pública gratuita.
  • No quieres asumir la factura de tokens de tus usuarios.
  • Estás prototipando y no quieres configurar facturación en OpenAI.
  • Tu aplicación corre principalmente en navegador.
  • No necesitas backend para ejecutar las llamadas.
  • Tus usuarios pueden iniciar sesión en Puter.

Usa la API oficial de OpenAI cuando:

  • Necesitas llamadas del lado del servidor.
  • Ejecutas tareas programadas, webhooks o procesamiento por lotes.
  • Necesitas la API de Responses, Files o salidas estructuradas completas.
  • Quieres aprovechar caché de prompts.
  • Necesitas acuerdos contractuales o requisitos de cumplimiento.
  • No quieres introducir un login adicional de Puter para tus usuarios.

Una estrategia práctica es empezar con Puter para validar la experiencia de usuario y migrar a la API oficial cuando aparezca una necesidad clara de backend, cumplimiento o control avanzado.

Para una configuración de producción de pago, consulta Cómo usar la API de GPT-5.5.

Probando la integración en Apidog

Las llamadas de Puter ocurren en el navegador, por lo que no puedes ejecutarlas directamente como una prueba backend tradicional. Un flujo práctico es separar prototipo y producción:

  1. Crea una página estática que use Puter.js.
  2. Lee el prompt desde un parámetro de consulta o desde un formulario.
  3. Usa esa página para validar el comportamiento del frontend.
  4. Usa Apidog para preparar y probar la API oficial de OpenAI si luego migras.
  5. Mantén dos entornos separados: uno para Puter y otro para OpenAI.

Ejemplo de entornos:

  • puter-prototype: URL local de tu página con Puter, por ejemplo http://localhost:5173.
  • openai-prod: https://api.openai.com/v1.

Descarga Apidog y configura ambos entornos en la misma colección. Así puedes comparar el prompt, la estructura de mensajes y la respuesta antes de decidir si migras desde Puter a la API oficial.

Para patrones de pruebas de API más amplios, consulta herramienta de prueba de API para ingenieros de QA.

Preguntas frecuentes

¿Es realmente ilimitado?

Desde el lado del desarrollador, sí. No tienes un límite de uso centralizado asociado a tu cuenta de OpenAI porque no estás usando tu propia clave. El consumo depende del saldo de la cuenta de Puter de cada usuario.

¿Necesito una cuenta de OpenAI?

No. Puter gestiona la conexión con OpenAI. Tu aplicación no ve ni almacena una clave de OpenAI.

¿Puedo usar esto en producción?

Sí, si tu aplicación está basada en navegador y el flujo de inicio de sesión en Puter encaja con tu producto. Si necesitas procesos backend sin usuario interactivo, usa la API oficial.

¿GPT-5.5 vía Puter funciona igual que la API oficial?

Puter llama a OpenAI en nombre del usuario. La salida del modelo debería mantener el mismo comportamiento del modelo, aunque puede existir latencia adicional por el salto intermedio.

¿Qué pasa con el caché de prompts?

Puter no expone los controles de caché de prompts de OpenAI. Si tu aplicación depende de un prompt de sistema grande y estable para reducir coste, usa la API oficial.

¿Puedo usar Puter en un servicio backend?

No de forma limpia. Puter está diseñado para navegador y asume una sesión de usuario. Para backend, usa la API oficial de OpenAI. Para alternativas gratuitas del lado del servidor, consulta Cómo usar la API de GPT-5.5 gratis.

¿Qué modelo debería usar por defecto?

Usa gpt-5.5 para razonamiento general. Usa gpt-5.4-nano para clasificación de alto volumen. Usa gpt-5.5-pro para tareas difíciles. Usa o3 cuando necesites razonamiento largo.

¿Se les cobrará mucho a mis usuarios?

Depende del uso. Las conversaciones de texto suelen tener costes bajos por sesión, pero la generación de imágenes puede consumir más saldo. Controla max_tokens, evita llamadas duplicadas y muestra acciones explícitas para operaciones costosas.

¿Puedo generar imágenes gratis con Puter?

Puedes generar imágenes con txt2img usando gpt-image-2 o DALL-E. El coste se carga al saldo de Puter del usuario. Para la guía de la API de pago, consulta Cómo usar la API de GPT-Image-2.

Conclusión

Puter.js es una forma directa de integrar modelos de OpenAI en aplicaciones de navegador sin gestionar claves, backend ni facturación propia. Añades el script, eliges un modelo y llamas a puter.ai.chat, txt2img o txt2speech según el caso.

Para prototipos, hackathons, sitios estáticos y aplicaciones públicas gratuitas, este enfoque reduce mucha complejidad. Para backend, caché de prompts, API de Responses, Files o salidas estructuradas completas, la API oficial de OpenAI sigue siendo la opción correcta.

Crea la solicitud una vez en Apidog, compara Puter con la API oficial y elige el camino que mejor encaje con tu arquitectura.

Top comments (0)