DEV Community

Cover image for Kostenlose GPT-5.5 API & Alle OpenAI Modelle Unbegrenzt
Emre Demir
Emre Demir

Posted on • Originally published at apidog.com

Kostenlose GPT-5.5 API & Alle OpenAI Modelle Unbegrenzt

OpenAIs GPT-5.5 wird mit einer kostenpflichtigen API ausgeliefert: 5 US-Dollar pro Million Input-Tokens, 30 US-Dollar pro Million Output-Tokens. Für Nebenprojekte, Hackathons oder kostenlose öffentliche Apps kann diese Rechnung schon vor dem ersten Release zum Problem werden. Ein praktikabler Workaround ist Puter.js: Es stellt den OpenAI-Katalog im Browser bereit, ohne dass Sie einen OpenAI-Schlüssel verwalten. Die Kosten werden dem Endnutzer über dessen Puter-Konto zugeordnet; für Entwickler bleibt die Nutzung kostenlos und unbegrenzt.

Probiere Apidog noch heute aus

TL;DR

  • Puter.js gibt Entwicklern kostenlosen, unbegrenzten Zugriff auf OpenAI-Modelle ohne API-Key, OpenAI-Konto oder Backend.
  • Unterstützte Textmodelle umfassen gpt-5.5, gpt-5.5-pro, gpt-5.4, gpt-5, gpt-5-mini, o1, o3, gpt-4.1, gpt-4o sowie Chat- und Codex-Varianten.
  • Bildmodelle: gpt-image-2, gpt-image-1.5, dall-e-3.
  • TTS-Modelle: gpt-4o-mini-tts, tts-1, tts-1-hd.
  • Ein <script>-Tag und ein Aufruf von puter.ai.chat() reichen für den ersten GPT-5.5-Call.
  • Streaming, Function Calling, Vision, Bildgenerierung und Text-zu-Sprache laufen direkt im Browser.
  • Der Endnutzer deckt die Nutzung über ein Puter-Konto; Sie zahlen nichts.
  • Nutzen Sie Apidog, um Prompts gegen Puter und die offizielle OpenAI API zu vergleichen, bevor Sie migrieren.

Wie „kostenlos unbegrenzt“ funktioniert

Puter.js dreht das übliche LLM-Abrechnungsmodell um:

  1. Nicht Ihre App besitzt den OpenAI-Key.
  2. Der Nutzer meldet sich bei Puter an.
  3. Der Modellaufruf wird über das Puter-Konto des Nutzers abgewickelt.
  4. Ihr Projekt benötigt keinen eigenen OpenAI-Vertrag und keine eigene Abrechnung.

Daraus ergeben sich drei praktische Vorteile:

  • Kein API-Key im Frontend oder Repo. Kein Leckagerisiko, keine Rotation, keine Secret-Verwaltung.
  • Keine zentrale Kostenstelle für Ihr Projekt. Jeder Nutzer läuft über sein eigenes Puter-Konto.
  • Geringe Einstiegshürde für Prototypen. Statische Website, Browser-Erweiterung oder Hackathon-Demo reichen aus.

Der wichtigste Kompromiss: Puter.js ist browserzentriert. Ein Backend-Node-Skript kann Puter nicht sauber ohne angemeldete Benutzersitzung nutzen. Für Cronjobs, Webhooks, Batch-Jobs oder serverseitige Agenten bleibt die offizielle OpenAI API der richtige Weg.

Schritt 1: Puter.js installieren

Für eine statische HTML-Seite reicht ein CDN-Script:

<script src="https://js.puter.com/v2/"></script>
Enter fullscreen mode Exit fullscreen mode

Minimalbeispiel:

<!DOCTYPE html>
<html lang="de">
<body>
  <script src="https://js.puter.com/v2/"></script>
</body>
</html>
Enter fullscreen mode Exit fullscreen mode

Für eine gebündelte App installieren Sie das Paket:

npm install @heyputer/puter.js
Enter fullscreen mode Exit fullscreen mode
import { puter } from '@heyputer/puter.js';
Enter fullscreen mode Exit fullscreen mode

Verwenden Sie:

  • CDN, wenn Sie schnell prototypen, eine statische Seite bauen oder in DevTools testen.
  • NPM, wenn Sie mit Bundler, TypeScript oder Komponentenframework arbeiten.

Schritt 2: Modell auswählen

Puter bietet die GPT-5.x-Reihe sowie ältere OpenAI-Modelle. Wählen Sie das Modell nach Aufgabe, nicht nach Hype.

Modell-ID Geeignet für
gpt-5.5-pro Komplexe Analyse, Code-Agenten, tiefe Schlussfolgerungen
gpt-5.5 Standardmodell für Chat, Assistenzfunktionen und allgemeine Aufgaben
gpt-5.4-nano Schnelle, günstige Textaufgaben und hochvolumige Klassifizierung
gpt-5.4-mini Chat-UIs mit guter Balance aus Qualität und Geschwindigkeit
gpt-5.3-codex Codespezifische Aufgaben
o3 Komplexe Argumentationsketten
o1-pro Mehrstufige Planung und agentenbasierte Workflows
gpt-4.1, gpt-4o, gpt-4o-mini Stabile, gut verstandene Basis für bestehende Integrationen

Für Bildgenerierung:

  • gpt-image-2: aktuelle Bildausgabe, scharf und schnell.
  • gpt-image-1.5, gpt-image-1, dall-e-3, dall-e-2: ältere, stabile Optionen.

Für Text-zu-Sprache:

  • gpt-4o-mini-tts: neuere, natürlich klingende TTS-Ausgabe.
  • tts-1, tts-1-hd: klassische TTS-Modelle mit niedriger Latenz.

Schritt 3: Ersten GPT-5.5-Call ausführen

Der kleinste lauffähige Chat-Aufruf sieht so aus:

<!DOCTYPE html>
<html lang="de">
<body>
  <script src="https://js.puter.com/v2/"></script>

  <script>
    puter.ai.chat(
      "Explain WebSockets in three sentences",
      { model: "gpt-5.5" }
    ).then(response => {
      puter.print(response);
    });
  </script>
</body>
</html>
Enter fullscreen mode Exit fullscreen mode

Ablauf:

  1. Datei als index.html speichern.
  2. Im Browser öffnen.
  3. Puter übernimmt die Authentifizierung des Nutzers.
  4. Die Antwort wird direkt auf der Seite ausgegeben.

Sie brauchen dafür:

  • keinen OpenAI-Key,
  • keine .env,
  • keinen Server,
  • keine Proxy-Route.

Schritt 4: Antwort streamen

Für Chat-UIs sollten Sie Streaming als Standard verwenden. So sieht der Nutzer sofort Fortschritt, statt auf die vollständige Antwort zu warten.

const response = await puter.ai.chat(
  "Explain the theory of relativity in detail",
  {
    model: "gpt-5.5",
    stream: true
  }
);

for await (const part of response) {
  puter.print(part?.text);
}
Enter fullscreen mode Exit fullscreen mode

In einer echten UI hängen Sie die Chunks an ein DOM-Element an:

const output = document.querySelector("#answer");

const stream = await puter.ai.chat(
  "Fasse HTTP Caching für Backend-Entwickler zusammen.",
  {
    model: "gpt-5.5",
    stream: true
  }
);

for await (const part of stream) {
  output.textContent += part?.text ?? "";
}
Enter fullscreen mode Exit fullscreen mode

HTML dazu:

<div id="answer"></div>
Enter fullscreen mode Exit fullscreen mode

Schritt 5: Vision mit Bildeingabe verwenden

Für Bildanalyse übergeben Sie zusätzlich eine Bild-URL:

puter.ai.chat(
  "What do you see in this image? Describe colors, objects, and mood.",
  "https://assets.puter.site/doge.jpeg",
  { model: "gpt-5.5" }
).then(response => {
  puter.print(response);
});
Enter fullscreen mode Exit fullscreen mode

Typische Anwendungsfälle:

  • Alt-Text für Bilder generieren
  • Screenshots analysieren
  • visuelle QA bauen
  • OCR-ähnliche Workflows prototypen
  • Barrierefreiheitstools testen

Das funktioniert mit GPT-5.x-Modellen und GPT-4o-Varianten.

Schritt 6: Bilder generieren

Mit puter.ai.txt2img() erzeugen Sie ein Bild aus einem Prompt. Die Funktion gibt ein bereits geladenes <img>-Element zurück.

puter.ai.txt2img(
  "A futuristic cityscape at night, cinematic, neon, rain",
  { model: "gpt-image-2" }
).then(imageElement => {
  document.body.appendChild(imageElement);
});
Enter fullscreen mode Exit fullscreen mode

Für eine kleine UI:

<input id="prompt" placeholder="Bildbeschreibung eingeben" />
<button id="generate">Generieren</button>
<div id="result"></div>

<script src="https://js.puter.com/v2/"></script>
<script>
  document.querySelector("#generate").addEventListener("click", async () => {
    const prompt = document.querySelector("#prompt").value;
    const result = document.querySelector("#result");

    result.textContent = "Generiere Bild...";

    const image = await puter.ai.txt2img(prompt, {
      model: "gpt-image-2"
    });

    result.textContent = "";
    result.appendChild(image);
  });
</script>
Enter fullscreen mode Exit fullscreen mode

Die Bildgenerierungskosten werden dem Puter-Konto des Nutzers zugeordnet. Für kostenlose öffentliche Generatoren ist das ein sauberes Modell, weil Ihre App keine zentrale OpenAI-Rechnung erzeugt.

Schritt 7: Text-zu-Sprache einbauen

Die OpenAI-TTS-Linie wird über txt2speech bereitgestellt. Die Funktion gibt ein <audio>-Element mit der generierten Stimme zurück.

puter.ai.txt2speech(
  "Welcome back. Your account balance is $1,247.50.",
  {
    provider: "openai",
    model: "gpt-4o-mini-tts"
  }
).then(audio => {
  audio.setAttribute("controls", "");
  document.body.appendChild(audio);
});
Enter fullscreen mode Exit fullscreen mode

Praktische Einsätze:

  • Sprachansagen in Web-Apps
  • Voiceover für Tutorials
  • Podcast-Intros
  • Barrierefreiheits-Narrationen
  • Vorlesefunktion für lange Texte

Schritt 8: Function Calling nutzen

Puter verwendet die bekannte OpenAI-Struktur für Tools. Sie definieren Funktionen, das Modell gibt tool_calls zurück, und Ihre App führt die Funktion aus.

const tools = [{
  type: "function",
  function: {
    name: "get_weather",
    description: "Get the current weather for a city.",
    parameters: {
      type: "object",
      properties: {
        city: {
          type: "string"
        }
      },
      required: ["city"]
    }
  }
}];

const response = await puter.ai.chat(
  "What's the weather in Tokyo right now?",
  {
    model: "gpt-5.5",
    tools
  }
);

const toolCalls = response.message.tool_calls;

if (toolCalls?.length) {
  console.log(
    toolCalls[0].function.name,
    toolCalls[0].function.arguments
  );
}
Enter fullscreen mode Exit fullscreen mode

Ein vollständiges Muster besteht aus drei Schritten:

  1. Tool definieren.
  2. Modell aufrufen.
  3. Tool-Aufruf ausführen und Ergebnis zurückgeben.

Beispiel für die lokale Ausführung:

function get_weather({ city }) {
  return {
    city,
    temperature: "22°C",
    condition: "Cloudy"
  };
}

if (toolCalls?.length) {
  const call = toolCalls[0];

  if (call.function.name === "get_weather") {
    const args = JSON.parse(call.function.arguments);
    const result = get_weather(args);

    console.log("Tool result:", result);
  }
}
Enter fullscreen mode Exit fullscreen mode

Die Struktur ähnelt der offiziellen OpenAI API. Dadurch lassen sich bestehende Tool-Definitionen leichter portieren. Für Tests tool-gesteuerter Abläufe in produktionsnahen Umgebungen siehe MCP-Servertests in Apidog.

Schritt 9: Temperatur und max_tokens setzen

Sie übergeben Standardparameter im Optionsobjekt:

const response = await puter.ai.chat(
  "Tell me about Mars",
  {
    model: "gpt-5.5",
    temperature: 0.2,
    max_tokens: 200
  }
);
Enter fullscreen mode Exit fullscreen mode

Faustregeln:

  • temperature: 0.0 bis 0.3: faktische, stabile Antworten
  • temperature: 0.7 bis 1.0: kreativer Output
  • max_tokens: begrenzt die Antwortlänge und damit die Kosten auf Nutzerseite

Für öffentliche Apps ist max_tokens besonders wichtig. Es verhindert, dass ein einzelner Prompt sehr lange Antworten erzeugt.

Was Sie erhalten und was nicht

Puter bietet kostenlosen, unbegrenzten GPT-5.5-Zugriff aus Entwicklersicht. Trotzdem ersetzt es nicht jede Funktion der offiziellen OpenAI API.

Sie erhalten:

  • GPT-5.x-Katalog inklusive 5.5, 5.5 Pro, 5.4-Varianten und Codex-Varianten
  • ältere OpenAI-Modelle wie GPT-4.1, GPT-4o, o1 und o3
  • GPT-Image-2 und DALL-E für Bildgenerierung
  • OpenAI-TTS-Modelle inklusive gpt-4o-mini-tts
  • Streaming
  • Vision
  • Function Calling
  • Temperatursteuerung
  • max_tokens

Was Sie möglicherweise nicht erhalten:

  • Responses API
  • Prompt-Caching zur Kostenreduzierung
  • Files API für hochgeladene Dokumente
  • serverseitige Nutzung ohne Browserkontext
  • direkte Rate-Limit-Header von OpenAI
  • strukturierte Ausgaben mit JSON-Schema-Erzwingung

Kurz gesagt:

  • Puter eignet sich sehr gut für Browser-Apps, Prototypen, kostenlose Tools und statische Seiten.
  • Offizielle OpenAI API eignet sich besser für Backend-Workloads, Compliance-Anforderungen und produktionsreife Serverarchitekturen.

Wann Puter verwenden?

Verwenden Sie Puter, wenn:

  • Sie eine kostenlose öffentliche App ohne eigenes Kostenrisiko veröffentlichen möchten.
  • Sie prototypen und keine OpenAI-Abrechnung einrichten wollen.
  • Sie eine statische Website, Browser-Erweiterung oder Hackathon-Demo bauen.
  • Sie keinen Backend-Proxy betreiben möchten.
  • Ihre Nutzer einen Puter-Login akzeptieren.

Wann die offizielle OpenAI API verwenden?

Verwenden Sie die offizielle OpenAI API, wenn:

  • Sie serverseitige Aufrufe brauchen.
  • Sie Cronjobs, Webhooks oder Batch-Verarbeitung ausführen.
  • Sie Prompt-Caching für stabile System-Prompts nutzen möchten.
  • Sie Responses API, Files oder strukturierte Ausgaben benötigen.
  • Sie Compliance- oder Vertragsanforderungen erfüllen müssen.
  • Ihre Nutzer keinen zusätzlichen Puter-Login akzeptieren.

Viele Projekte starten mit Puter und migrieren später zur offiziellen API, sobald Backend-Anforderungen, Compliance oder spezielle API-Funktionen wichtig werden. Die Migration ist einfacher, weil die Nachrichtenstruktur ähnlich bleibt.

Für ein kostenpflichtiges Produktions-Setup siehe Wie man die GPT-5.5 API verwendet.

Integration in Apidog testen

Puter-Aufrufe laufen im Browser. Deshalb können Sie sie nicht wie reine Backend-Requests direkt über einen klassischen API-Test-Runner ausführen. Ein praktikables Setup sieht so aus:

  1. Erstellen Sie eine kleine statische Seite mit Puter.js.
  2. Lesen Sie den Prompt aus einem Query-Parameter.
  3. Testen Sie dieselbe Prompt-Struktur separat gegen die offizielle OpenAI API.
  4. Halten Sie beide Varianten in Apidog als getrennte Umgebungen.

Beispiel für eine Puter-Testseite:

<!DOCTYPE html>
<html lang="de">
<body>
  <pre id="output"></pre>

  <script src="https://js.puter.com/v2/"></script>
  <script>
    const params = new URLSearchParams(location.search);
    const prompt = params.get("prompt") ?? "Sag Hallo";

    const output = document.querySelector("#output");

    puter.ai.chat(prompt, {
      model: "gpt-5.5"
    }).then(response => {
      output.textContent = response;
    });
  </script>
</body>
</html>
Enter fullscreen mode Exit fullscreen mode

Aufruf lokal:

http://localhost:3000/?prompt=Erkläre%20WebSockets%20in%20drei%20Sätzen
Enter fullscreen mode Exit fullscreen mode

In Apidog können Sie parallel Umgebungen anlegen:

  • puter-prototype: lokale URL Ihrer Puter-Testseite
  • openai-prod: https://api.openai.com/v1

Laden Sie Apidog herunter und pflegen Sie Puter-Prototyp und OpenAI-Produktions-Setup in derselben Sammlung. So können Sie Prompts, Request-Strukturen und erwartete Antworten systematisch vergleichen. Für breitere API-Testmuster siehe API-Testtool für QA-Ingenieure.

FAQ

Ist dies wirklich unbegrenzt, oder gibt es eine versteckte Obergrenze?

Aus Entwicklersicht ist es unbegrenzt. Der Endnutzer nutzt sein Puter-Konto. Neue Konten erhalten Startguthaben, und Nutzer können bei Bedarf mehr aufladen. Es gibt keine zentrale Obergrenze pro Entwicklerprojekt.

Brauche ich ein OpenAI-Konto?

Nein. Puter wickelt die OpenAI-Beziehung ab. Sie verwalten keinen OpenAI-Schlüssel.

Kann ich das in Produktion verwenden?

Ja, für browserbasierte Apps. Entscheidend ist, ob Ihre Nutzer bereit sind, sich bei Puter anzumelden.

Verhält sich GPT-5.5 über Puter identisch zur offiziellen API?

Die Modellausgabe basiert auf der offiziellen OpenAI API im Namen des Nutzers. Durch den zusätzlichen Hop kann die Latenz geringfügig höher sein.

Wie sieht es mit Prompt-Caching aus?

Puter bietet derzeit keine Preissteuerung für OpenAI-Prompt-Caching. Wenn Sie stabile große System-Prompts haben und Cache-Rabatte benötigen, verwenden Sie die offizielle API.

Kann ich Puter in einem Backend-Dienst verwenden?

Nicht sauber. Puter ist browserzentriert und setzt eine Benutzersitzung voraus. Backend-Dienste sollten die offizielle OpenAI API verwenden. Für kostenlose serverseitige Optionen siehe Wie man die GPT-5.5 API kostenlos verwendet.

Welches Modell sollte ich standardmäßig verwenden?

Verwenden Sie gpt-5.5 für allgemeine Aufgaben, gpt-5.4-nano für hochvolumige Klassifizierung, gpt-5.5-pro für komplexe Denkaufgaben und o3 für lange Schlussfolgerungsketten.

Werden meine Nutzer viel bezahlen müssen?

Chat-ähnliche Nutzung kostet typischerweise nur geringe Beträge pro Sitzung. Bildgenerierung ist teurer. Begrenzen Sie max_tokens und vermeiden Sie unnötige Generierungsaufrufe.

Kann ich Bilder mit Puter kostenlos generieren?

Ja, über txt2img mit gpt-image-2 oder DALL-E. Die Kosten werden dem Puter-Guthaben des Nutzers zugeordnet. Eine Anleitung zur offiziellen kostenpflichtigen API finden Sie unter Wie man die GPT-Image-2 API verwendet.

Zusammenfassung

Puter.js ist ein praktischer Weg, GPT-5.5 und andere OpenAI-Modelle in browserbasierte Apps einzubauen, ohne einen eigenen OpenAI-Key oder ein eigenes Abrechnungsmodell zu verwalten.

Der Implementierungsweg ist kurz:

  1. Puter-Script einbinden.
  2. Modell auswählen.
  3. puter.ai.chat() oder eine der Spezialfunktionen aufrufen.
  4. Optional Streaming, Vision, Function Calling, Bildgenerierung oder TTS ergänzen.
  5. Bei Bedarf später zur offiziellen OpenAI API migrieren.

Für serverseitige Workloads, Prompt-Caching, Responses API, Files oder strukturierte Ausgaben bleibt die offizielle OpenAI API die bessere Wahl. Für Prototypen, Hackathons, kostenlose öffentliche Apps und statische Websites ist Puter eine sehr schnelle Lösung.

Erstellen Sie die Anfrage einmal in Apidog, vergleichen Sie Puter mit der offiziellen API und wählen Sie den Pfad, der zu Ihrer Architektur passt.

Top comments (0)