OpenAIs GPT-5.5 wird mit einer kostenpflichtigen API ausgeliefert: 5 US-Dollar pro Million Input-Tokens, 30 US-Dollar pro Million Output-Tokens. Für Nebenprojekte, Hackathons oder kostenlose öffentliche Apps kann diese Rechnung schon vor dem ersten Release zum Problem werden. Ein praktikabler Workaround ist Puter.js: Es stellt den OpenAI-Katalog im Browser bereit, ohne dass Sie einen OpenAI-Schlüssel verwalten. Die Kosten werden dem Endnutzer über dessen Puter-Konto zugeordnet; für Entwickler bleibt die Nutzung kostenlos und unbegrenzt.
Probiere Apidog noch heute aus
TL;DR
- Puter.js gibt Entwicklern kostenlosen, unbegrenzten Zugriff auf OpenAI-Modelle ohne API-Key, OpenAI-Konto oder Backend.
- Unterstützte Textmodelle umfassen gpt-5.5, gpt-5.5-pro, gpt-5.4, gpt-5, gpt-5-mini, o1, o3, gpt-4.1, gpt-4o sowie Chat- und Codex-Varianten.
- Bildmodelle: gpt-image-2, gpt-image-1.5, dall-e-3.
- TTS-Modelle: gpt-4o-mini-tts, tts-1, tts-1-hd.
- Ein
<script>-Tag und ein Aufruf vonputer.ai.chat()reichen für den ersten GPT-5.5-Call. - Streaming, Function Calling, Vision, Bildgenerierung und Text-zu-Sprache laufen direkt im Browser.
- Der Endnutzer deckt die Nutzung über ein Puter-Konto; Sie zahlen nichts.
- Nutzen Sie Apidog, um Prompts gegen Puter und die offizielle OpenAI API zu vergleichen, bevor Sie migrieren.
Wie „kostenlos unbegrenzt“ funktioniert
Puter.js dreht das übliche LLM-Abrechnungsmodell um:
- Nicht Ihre App besitzt den OpenAI-Key.
- Der Nutzer meldet sich bei Puter an.
- Der Modellaufruf wird über das Puter-Konto des Nutzers abgewickelt.
- Ihr Projekt benötigt keinen eigenen OpenAI-Vertrag und keine eigene Abrechnung.
Daraus ergeben sich drei praktische Vorteile:
- Kein API-Key im Frontend oder Repo. Kein Leckagerisiko, keine Rotation, keine Secret-Verwaltung.
- Keine zentrale Kostenstelle für Ihr Projekt. Jeder Nutzer läuft über sein eigenes Puter-Konto.
- Geringe Einstiegshürde für Prototypen. Statische Website, Browser-Erweiterung oder Hackathon-Demo reichen aus.
Der wichtigste Kompromiss: Puter.js ist browserzentriert. Ein Backend-Node-Skript kann Puter nicht sauber ohne angemeldete Benutzersitzung nutzen. Für Cronjobs, Webhooks, Batch-Jobs oder serverseitige Agenten bleibt die offizielle OpenAI API der richtige Weg.
Schritt 1: Puter.js installieren
Für eine statische HTML-Seite reicht ein CDN-Script:
<script src="https://js.puter.com/v2/"></script>
Minimalbeispiel:
<!DOCTYPE html>
<html lang="de">
<body>
<script src="https://js.puter.com/v2/"></script>
</body>
</html>
Für eine gebündelte App installieren Sie das Paket:
npm install @heyputer/puter.js
import { puter } from '@heyputer/puter.js';
Verwenden Sie:
- CDN, wenn Sie schnell prototypen, eine statische Seite bauen oder in DevTools testen.
- NPM, wenn Sie mit Bundler, TypeScript oder Komponentenframework arbeiten.
Schritt 2: Modell auswählen
Puter bietet die GPT-5.x-Reihe sowie ältere OpenAI-Modelle. Wählen Sie das Modell nach Aufgabe, nicht nach Hype.
| Modell-ID | Geeignet für |
|---|---|
gpt-5.5-pro |
Komplexe Analyse, Code-Agenten, tiefe Schlussfolgerungen |
gpt-5.5 |
Standardmodell für Chat, Assistenzfunktionen und allgemeine Aufgaben |
gpt-5.4-nano |
Schnelle, günstige Textaufgaben und hochvolumige Klassifizierung |
gpt-5.4-mini |
Chat-UIs mit guter Balance aus Qualität und Geschwindigkeit |
gpt-5.3-codex |
Codespezifische Aufgaben |
o3 |
Komplexe Argumentationsketten |
o1-pro |
Mehrstufige Planung und agentenbasierte Workflows |
gpt-4.1, gpt-4o, gpt-4o-mini
|
Stabile, gut verstandene Basis für bestehende Integrationen |
Für Bildgenerierung:
-
gpt-image-2: aktuelle Bildausgabe, scharf und schnell. -
gpt-image-1.5,gpt-image-1,dall-e-3,dall-e-2: ältere, stabile Optionen.
Für Text-zu-Sprache:
-
gpt-4o-mini-tts: neuere, natürlich klingende TTS-Ausgabe. -
tts-1,tts-1-hd: klassische TTS-Modelle mit niedriger Latenz.
Schritt 3: Ersten GPT-5.5-Call ausführen
Der kleinste lauffähige Chat-Aufruf sieht so aus:
<!DOCTYPE html>
<html lang="de">
<body>
<script src="https://js.puter.com/v2/"></script>
<script>
puter.ai.chat(
"Explain WebSockets in three sentences",
{ model: "gpt-5.5" }
).then(response => {
puter.print(response);
});
</script>
</body>
</html>
Ablauf:
- Datei als
index.htmlspeichern. - Im Browser öffnen.
- Puter übernimmt die Authentifizierung des Nutzers.
- Die Antwort wird direkt auf der Seite ausgegeben.
Sie brauchen dafür:
- keinen OpenAI-Key,
- keine
.env, - keinen Server,
- keine Proxy-Route.
Schritt 4: Antwort streamen
Für Chat-UIs sollten Sie Streaming als Standard verwenden. So sieht der Nutzer sofort Fortschritt, statt auf die vollständige Antwort zu warten.
const response = await puter.ai.chat(
"Explain the theory of relativity in detail",
{
model: "gpt-5.5",
stream: true
}
);
for await (const part of response) {
puter.print(part?.text);
}
In einer echten UI hängen Sie die Chunks an ein DOM-Element an:
const output = document.querySelector("#answer");
const stream = await puter.ai.chat(
"Fasse HTTP Caching für Backend-Entwickler zusammen.",
{
model: "gpt-5.5",
stream: true
}
);
for await (const part of stream) {
output.textContent += part?.text ?? "";
}
HTML dazu:
<div id="answer"></div>
Schritt 5: Vision mit Bildeingabe verwenden
Für Bildanalyse übergeben Sie zusätzlich eine Bild-URL:
puter.ai.chat(
"What do you see in this image? Describe colors, objects, and mood.",
"https://assets.puter.site/doge.jpeg",
{ model: "gpt-5.5" }
).then(response => {
puter.print(response);
});
Typische Anwendungsfälle:
- Alt-Text für Bilder generieren
- Screenshots analysieren
- visuelle QA bauen
- OCR-ähnliche Workflows prototypen
- Barrierefreiheitstools testen
Das funktioniert mit GPT-5.x-Modellen und GPT-4o-Varianten.
Schritt 6: Bilder generieren
Mit puter.ai.txt2img() erzeugen Sie ein Bild aus einem Prompt. Die Funktion gibt ein bereits geladenes <img>-Element zurück.
puter.ai.txt2img(
"A futuristic cityscape at night, cinematic, neon, rain",
{ model: "gpt-image-2" }
).then(imageElement => {
document.body.appendChild(imageElement);
});
Für eine kleine UI:
<input id="prompt" placeholder="Bildbeschreibung eingeben" />
<button id="generate">Generieren</button>
<div id="result"></div>
<script src="https://js.puter.com/v2/"></script>
<script>
document.querySelector("#generate").addEventListener("click", async () => {
const prompt = document.querySelector("#prompt").value;
const result = document.querySelector("#result");
result.textContent = "Generiere Bild...";
const image = await puter.ai.txt2img(prompt, {
model: "gpt-image-2"
});
result.textContent = "";
result.appendChild(image);
});
</script>
Die Bildgenerierungskosten werden dem Puter-Konto des Nutzers zugeordnet. Für kostenlose öffentliche Generatoren ist das ein sauberes Modell, weil Ihre App keine zentrale OpenAI-Rechnung erzeugt.
Schritt 7: Text-zu-Sprache einbauen
Die OpenAI-TTS-Linie wird über txt2speech bereitgestellt. Die Funktion gibt ein <audio>-Element mit der generierten Stimme zurück.
puter.ai.txt2speech(
"Welcome back. Your account balance is $1,247.50.",
{
provider: "openai",
model: "gpt-4o-mini-tts"
}
).then(audio => {
audio.setAttribute("controls", "");
document.body.appendChild(audio);
});
Praktische Einsätze:
- Sprachansagen in Web-Apps
- Voiceover für Tutorials
- Podcast-Intros
- Barrierefreiheits-Narrationen
- Vorlesefunktion für lange Texte
Schritt 8: Function Calling nutzen
Puter verwendet die bekannte OpenAI-Struktur für Tools. Sie definieren Funktionen, das Modell gibt tool_calls zurück, und Ihre App führt die Funktion aus.
const tools = [{
type: "function",
function: {
name: "get_weather",
description: "Get the current weather for a city.",
parameters: {
type: "object",
properties: {
city: {
type: "string"
}
},
required: ["city"]
}
}
}];
const response = await puter.ai.chat(
"What's the weather in Tokyo right now?",
{
model: "gpt-5.5",
tools
}
);
const toolCalls = response.message.tool_calls;
if (toolCalls?.length) {
console.log(
toolCalls[0].function.name,
toolCalls[0].function.arguments
);
}
Ein vollständiges Muster besteht aus drei Schritten:
- Tool definieren.
- Modell aufrufen.
- Tool-Aufruf ausführen und Ergebnis zurückgeben.
Beispiel für die lokale Ausführung:
function get_weather({ city }) {
return {
city,
temperature: "22°C",
condition: "Cloudy"
};
}
if (toolCalls?.length) {
const call = toolCalls[0];
if (call.function.name === "get_weather") {
const args = JSON.parse(call.function.arguments);
const result = get_weather(args);
console.log("Tool result:", result);
}
}
Die Struktur ähnelt der offiziellen OpenAI API. Dadurch lassen sich bestehende Tool-Definitionen leichter portieren. Für Tests tool-gesteuerter Abläufe in produktionsnahen Umgebungen siehe MCP-Servertests in Apidog.
Schritt 9: Temperatur und max_tokens setzen
Sie übergeben Standardparameter im Optionsobjekt:
const response = await puter.ai.chat(
"Tell me about Mars",
{
model: "gpt-5.5",
temperature: 0.2,
max_tokens: 200
}
);
Faustregeln:
-
temperature: 0.0bis0.3: faktische, stabile Antworten -
temperature: 0.7bis1.0: kreativer Output -
max_tokens: begrenzt die Antwortlänge und damit die Kosten auf Nutzerseite
Für öffentliche Apps ist max_tokens besonders wichtig. Es verhindert, dass ein einzelner Prompt sehr lange Antworten erzeugt.
Was Sie erhalten und was nicht
Puter bietet kostenlosen, unbegrenzten GPT-5.5-Zugriff aus Entwicklersicht. Trotzdem ersetzt es nicht jede Funktion der offiziellen OpenAI API.
Sie erhalten:
- GPT-5.x-Katalog inklusive 5.5, 5.5 Pro, 5.4-Varianten und Codex-Varianten
- ältere OpenAI-Modelle wie GPT-4.1, GPT-4o, o1 und o3
- GPT-Image-2 und DALL-E für Bildgenerierung
- OpenAI-TTS-Modelle inklusive
gpt-4o-mini-tts - Streaming
- Vision
- Function Calling
- Temperatursteuerung
max_tokens
Was Sie möglicherweise nicht erhalten:
- Responses API
- Prompt-Caching zur Kostenreduzierung
- Files API für hochgeladene Dokumente
- serverseitige Nutzung ohne Browserkontext
- direkte Rate-Limit-Header von OpenAI
- strukturierte Ausgaben mit JSON-Schema-Erzwingung
Kurz gesagt:
- Puter eignet sich sehr gut für Browser-Apps, Prototypen, kostenlose Tools und statische Seiten.
- Offizielle OpenAI API eignet sich besser für Backend-Workloads, Compliance-Anforderungen und produktionsreife Serverarchitekturen.
Wann Puter verwenden?
Verwenden Sie Puter, wenn:
- Sie eine kostenlose öffentliche App ohne eigenes Kostenrisiko veröffentlichen möchten.
- Sie prototypen und keine OpenAI-Abrechnung einrichten wollen.
- Sie eine statische Website, Browser-Erweiterung oder Hackathon-Demo bauen.
- Sie keinen Backend-Proxy betreiben möchten.
- Ihre Nutzer einen Puter-Login akzeptieren.
Wann die offizielle OpenAI API verwenden?
Verwenden Sie die offizielle OpenAI API, wenn:
- Sie serverseitige Aufrufe brauchen.
- Sie Cronjobs, Webhooks oder Batch-Verarbeitung ausführen.
- Sie Prompt-Caching für stabile System-Prompts nutzen möchten.
- Sie Responses API, Files oder strukturierte Ausgaben benötigen.
- Sie Compliance- oder Vertragsanforderungen erfüllen müssen.
- Ihre Nutzer keinen zusätzlichen Puter-Login akzeptieren.
Viele Projekte starten mit Puter und migrieren später zur offiziellen API, sobald Backend-Anforderungen, Compliance oder spezielle API-Funktionen wichtig werden. Die Migration ist einfacher, weil die Nachrichtenstruktur ähnlich bleibt.
Für ein kostenpflichtiges Produktions-Setup siehe Wie man die GPT-5.5 API verwendet.
Integration in Apidog testen
Puter-Aufrufe laufen im Browser. Deshalb können Sie sie nicht wie reine Backend-Requests direkt über einen klassischen API-Test-Runner ausführen. Ein praktikables Setup sieht so aus:
- Erstellen Sie eine kleine statische Seite mit Puter.js.
- Lesen Sie den Prompt aus einem Query-Parameter.
- Testen Sie dieselbe Prompt-Struktur separat gegen die offizielle OpenAI API.
- Halten Sie beide Varianten in Apidog als getrennte Umgebungen.
Beispiel für eine Puter-Testseite:
<!DOCTYPE html>
<html lang="de">
<body>
<pre id="output"></pre>
<script src="https://js.puter.com/v2/"></script>
<script>
const params = new URLSearchParams(location.search);
const prompt = params.get("prompt") ?? "Sag Hallo";
const output = document.querySelector("#output");
puter.ai.chat(prompt, {
model: "gpt-5.5"
}).then(response => {
output.textContent = response;
});
</script>
</body>
</html>
Aufruf lokal:
http://localhost:3000/?prompt=Erkläre%20WebSockets%20in%20drei%20Sätzen
In Apidog können Sie parallel Umgebungen anlegen:
-
puter-prototype: lokale URL Ihrer Puter-Testseite -
openai-prod:https://api.openai.com/v1
Laden Sie Apidog herunter und pflegen Sie Puter-Prototyp und OpenAI-Produktions-Setup in derselben Sammlung. So können Sie Prompts, Request-Strukturen und erwartete Antworten systematisch vergleichen. Für breitere API-Testmuster siehe API-Testtool für QA-Ingenieure.
FAQ
Ist dies wirklich unbegrenzt, oder gibt es eine versteckte Obergrenze?
Aus Entwicklersicht ist es unbegrenzt. Der Endnutzer nutzt sein Puter-Konto. Neue Konten erhalten Startguthaben, und Nutzer können bei Bedarf mehr aufladen. Es gibt keine zentrale Obergrenze pro Entwicklerprojekt.
Brauche ich ein OpenAI-Konto?
Nein. Puter wickelt die OpenAI-Beziehung ab. Sie verwalten keinen OpenAI-Schlüssel.
Kann ich das in Produktion verwenden?
Ja, für browserbasierte Apps. Entscheidend ist, ob Ihre Nutzer bereit sind, sich bei Puter anzumelden.
Verhält sich GPT-5.5 über Puter identisch zur offiziellen API?
Die Modellausgabe basiert auf der offiziellen OpenAI API im Namen des Nutzers. Durch den zusätzlichen Hop kann die Latenz geringfügig höher sein.
Wie sieht es mit Prompt-Caching aus?
Puter bietet derzeit keine Preissteuerung für OpenAI-Prompt-Caching. Wenn Sie stabile große System-Prompts haben und Cache-Rabatte benötigen, verwenden Sie die offizielle API.
Kann ich Puter in einem Backend-Dienst verwenden?
Nicht sauber. Puter ist browserzentriert und setzt eine Benutzersitzung voraus. Backend-Dienste sollten die offizielle OpenAI API verwenden. Für kostenlose serverseitige Optionen siehe Wie man die GPT-5.5 API kostenlos verwendet.
Welches Modell sollte ich standardmäßig verwenden?
Verwenden Sie gpt-5.5 für allgemeine Aufgaben, gpt-5.4-nano für hochvolumige Klassifizierung, gpt-5.5-pro für komplexe Denkaufgaben und o3 für lange Schlussfolgerungsketten.
Werden meine Nutzer viel bezahlen müssen?
Chat-ähnliche Nutzung kostet typischerweise nur geringe Beträge pro Sitzung. Bildgenerierung ist teurer. Begrenzen Sie max_tokens und vermeiden Sie unnötige Generierungsaufrufe.
Kann ich Bilder mit Puter kostenlos generieren?
Ja, über txt2img mit gpt-image-2 oder DALL-E. Die Kosten werden dem Puter-Guthaben des Nutzers zugeordnet. Eine Anleitung zur offiziellen kostenpflichtigen API finden Sie unter Wie man die GPT-Image-2 API verwendet.
Zusammenfassung
Puter.js ist ein praktischer Weg, GPT-5.5 und andere OpenAI-Modelle in browserbasierte Apps einzubauen, ohne einen eigenen OpenAI-Key oder ein eigenes Abrechnungsmodell zu verwalten.
Der Implementierungsweg ist kurz:
- Puter-Script einbinden.
- Modell auswählen.
-
puter.ai.chat()oder eine der Spezialfunktionen aufrufen. - Optional Streaming, Vision, Function Calling, Bildgenerierung oder TTS ergänzen.
- Bei Bedarf später zur offiziellen OpenAI API migrieren.
Für serverseitige Workloads, Prompt-Caching, Responses API, Files oder strukturierte Ausgaben bleibt die offizielle OpenAI API die bessere Wahl. Für Prototypen, Hackathons, kostenlose öffentliche Apps und statische Websites ist Puter eine sehr schnelle Lösung.
Erstellen Sie die Anfrage einmal in Apidog, vergleichen Sie Puter mit der offiziellen API und wählen Sie den Pfad, der zu Ihrer Architektur passt.

Top comments (0)