OpenAI hat am 23. April 2026 mit der Einführung von GPT-5.5 die Token-Preise der GPT-5-Linie verdoppelt. Die Kosten für Input steigen von $2,50 auf $5,00 pro Million Tokens, Output von $15,00 auf $30,00 pro Million. Die Pro-Preise bleiben bei $30/$180. In diesem Artikel findest du einen technischen, praxisorientierten Überblick, wie du die neuen Preismodelle effizient für deine Projekte einsetzt und wie du Kosten vorab berechnest.
Probiere Apidog noch heute aus
Dieser Leitfaden behandelt alle Preismodelle: Standard-API, Batch, Flex, Priority, Pro-Tarife, Codex-Limits pro Plan und zeigt, wie du die Kosten deiner tatsächlichen Workloads berechnest, bevor du den Standardmodus wechselst.
Für einen Modellüberblick siehe Was ist GPT-5.5. Für eine Entwickleranleitung siehe Wie man die GPT-5.5 API benutzt.
TL;DR
| Oberfläche | Input / M | Output / M |
|---|---|---|
| GPT-5.5 Standard-API | $5,00 | $30,00 |
| GPT-5.5 Pro-API | $30,00 | $180,00 |
| GPT-5.5 Batch (50 % Rabatt) | $2,50 | $15,00 |
| GPT-5.5 Flex (50 % Rabatt) | $2,50 | $15,00 |
| GPT-5.5 Priority (2,5×) | $12,50 | $75,00 |
| GPT-5.4 Standard-API | $2,50 | $15,00 |
| GPT-5.4-mini API | $0,25 | $2,00 |
Fazit: GPT-5.5 ist pro Token 2× teurer als GPT-5.4. OpenAI gibt an, dass sich dies durch ca. 20% effizientere Token-Nutzung relativiert.
Die wichtigsten Zahlen
- GPT-5.5: $5,00/M Input-Tokens, $30,00/M Output-Tokens
- GPT-5.5 Pro: $30,00/M Input-Tokens, $180,00/M Output-Tokens
- Kontextfenster: 1 Mio Tokens (Input + Output). Reasoning-Tokens werden auf das Kontextfenster und die Output-Abrechnung angerechnet.
OpenAI veröffentlicht Preise auf der API-Preisseite.
Batch, Flex und Priority
OpenAI bietet drei alternative Preisstufen für unterschiedliche Anforderungen:
Batch-API
- Anfragen werden über den Batch-Endpunkt eingereicht und mit 50 % Rabatt bearbeitet.
- Bearbeitung innerhalb von 24 Stunden.
- Ideal für: nächtliche Auswertungen, historische Datenverarbeitung, Workflows mit Latenzbudget in Stunden.
Preis: $2,50 (Input) / $15,00 (Output) pro Million Tokens – entspricht GPT-5.4 Standard.
Flex-Verarbeitung
- Ebenfalls 50 % Rabatt.
- Latenz variiert von Sekunden bis Minuten.
- Geeignet, wenn Latenz unkritisch ist, aber (fast) synchrone Antworten benötigt werden.
Priority-Verarbeitung
- 2,5× Standardtarif ($12,50 / $75,00 bei GPT-5.5).
- Schneller Durchsatz, höhere Rate-Limits, kaum Warteschlange.
- Nutze Priority für Live-Anwendungen, bei denen Endlatenz entscheidend ist.
Kostenberechnung für den Thinking-Modus
Mit GPT-5.5 kann der "reasoning.effort" Parameter gesetzt werden. Er verändert die Anzahl der verwendeten Tokens pro Anfrage, nicht den Preis pro Token. Die Multiplikatoren:
| Aufwand | Output-Token-Multiplikator | Wann zu verwenden |
|---|---|---|
low (Standard) |
1× | Routineaufrufe |
medium |
1,3–2× | Mehrschrittige Codierung, strukturierte Generierung |
high |
2–4× | Tiefgehende Recherche, Korrektheitsprüfung |
xhigh |
3–8× | Agenten-Loops, dichte Planung |
Praxis-Tipp: Ein einziger xhigh-Call mit langem Prompt kann >20.000 Reasoning-Tokens verbrauchen. Bei $30/M Output sind das $0,60 nur für Reasoning – Output-Kosten kommen dazu. Kalkuliere daher das Budget pro Arbeitslast, nicht pro Anfrage.
Codex-Preise
Der Zugang zu Codex hängt vom ChatGPT-Plan ab, nicht vom reinen Tokenverbrauch:
| Plan | Codex-Zugang | GPT-5.5 | Anmerkungen |
|---|---|---|---|
| Kostenlos | Ja (limitiert) | Ja | Strenge Wochenlimits |
| Go | Ja (limitiert) | Ja | 2× kostenlose Limits |
| Plus ($20/Monat) | Ja | Ja | Standard-Limits |
| Pro ($200/Monat) | Ja | Ja + Thinking + Pro | Höchste Benutzerlimits |
| Business | Ja | Ja | Platzbasiert |
| Enterprise/Bildung | Ja | Ja | Vertragsbasiert |
Praxis-Tipp: Wer viel im Coding-Terminal arbeitet, fährt mit Plus oder Pro günstiger als mit API-Einzelabrechnung – insbesondere ab einigen 100k Tokens/Tag. Der Leitfaden zum kostenlosen Einstieg zeigt, wie du loslegen kannst.
Vergleich: GPT-5.5 vs. andere Modelle
Wann lohnt sich GPT-5.5? Vergleiche Input-/Output-Kosten:
| Modell | Input / M | Output / M | Kosten pro 1.000 Output-Tokens |
|---|---|---|---|
| GPT-5.4-mini | $0,25 | $2,00 | $0,0020 |
| GPT-5.4 | $2,50 | $15,00 | $0,0150 |
| GPT-5.5 | $5,00 | $30,00 | $0,0300 |
| GPT-5.5 Pro | $30,00 | $180,00 | $0,1800 |
Entscheidungshilfe:
- Viel Output, geringes Risiko (Klassifikation, Zusammenfassung, simpler Chat): GPT-5.4-mini
- Produktion, 5.4 erfüllt Qualitätsanspruch: GPT-5.4
- Anspruchsvolle Codierung, Agenten, Forschung: GPT-5.5
- Kritischer Output, Fehlererkennung teuer: GPT-5.5 Pro
Beispiel: Kosten pro Aufgabe für einen Coding-Agenten
Eine typische API-Session mit GPT-5.5 und reasoning.effort: "medium":
- Input-Tokens: ~15.000 (Repo-Kontext + Prompt)
- Output-Tokens: ~3.000 (Code + Erklärung)
- Reasoning-Tokens: ~6.000 (mittlerer Aufwand)
Kosten pro Aufgabe (Standardpreise):
Input: 15 K × $5,00 / M = $0,075
Output: (3 K + 6 K) × $30,00 / M = $0,27
Gesamt: $0,345 pro Aufgabe
Auf GPT-5.4:
Input: 15 K × $2,50 / M = $0,0375
Output: 9 K × $15,00 / M = $0,135
Gesamt: $0,1725 pro Aufgabe
Fazit: GPT-5.5 kostet das Doppelte pro Aufgabe. Das Upgrade lohnt sich, wenn die höhere Genauigkeit teure Wiederholungen einspart.
Kostenkontrollen: Sofort umsetzbare Maßnahmen
Implementiere diese fünf Hebel direkt zum Start, um Kosten im Griff zu behalten:
-
Harte
max_output_tokens-Limits – z.B. Standard 2.000, nur bei Bedarf mehr. - Strikte JSON-Schemas – Fehlerhafte Ausgaben verursachen teure Wiederholungen.
- Nach Schwierigkeit routen – Einfache Aufgaben an 5.4-mini, Komplexes an 5.5 senden.
- Batch für alles Offline nutzen – Auswertungen, Reports, Nachfüllungen = 50 % Rabatt.
-
usage.reasoning_tokensüberwachen – Unerwartet hohe Reasoning-Kosten früh erkennen und alarmieren.
Monatliche Kostenübersicht pro Plan
Wähle den passenden ChatGPT-Plan für deinen Use-Case:
| Plan | Monatlicher Preis | Am besten geeignet für |
|---|---|---|
| Kostenlos | $0 | GPT-5.5 via Codex testen |
| Go | $4 / Monat | Studierende, Gelegenheitsnutzer (2× Limits) |
| Plus | $20 / Monat | Einzelentwickler, tägliche Nutzung |
| Pro | $200 / Monat | Power-User, Thinking und Pro in ChatGPT |
| Business | $25 / Sitzplatz / Monat | Teams, gemeinsame Workspaces |
| Enterprise / Bildung | Kundenspezifisch | Vertragsbasiert mit SLA |
Praxis-Tipp: Wer >4 Mio Output-Tokens/Monat verarbeitet, spart mit ChatGPT Pro + Codex CLI gegenüber der API-Abrechnung – solange die Arbeitslast in das 400k Token Kontextfenster passt.
Preisänderungssignale: Darauf achten
Zwei wichtige Indikatoren für die Preisentwicklung:
- Allgemeine Verfügbarkeit von GPT-5.5 – Preise könnten mit Konkurrenz (Claude, Gemini, Open-Weight-Modelle) sinken. Siehe Vellum-Leaderboard.
- Demokratisierung des Pro-Modells – OpenAI hat Pro-Preise bisher oft 3–6 Monate nach Release gesenkt. Plane mit Spielraum.
FAQ
Reduziert Caching die Input-Kosten?
Ja, gecachte Input-Tokens werden günstiger abgerechnet. Details auf der OpenAI-Preisseite. Cache-Systemprompts, Tool-Schemas, Repo-Kontext.
Gibt es Mengenrabatt?
Kein offizieller. Individuelle Tarife sind für Großkunden möglich. Bei >$1 Mio/Jahr: Vertrieb kontaktieren.
Verursacht Thinking-Modus Zusatzkosten?
Nein, aber der höhere Tokenverbrauch erhöht die Kosten.
Wird Codex CLI separat abgerechnet?
Nur bei API-Key-Login. Bei ChatGPT-Login über die Plangebühr.
Günstigster Einstieg für GPT-5.5?
Kostenloser oder Go-Plan plus Codex CLI. Siehe Leitfaden zum kostenlosen Einstieg für Details.
Top comments (0)