DEV Community

Cover image for GPT-5.5 Preise: Detaillierte Kostenaufschlüsselung für API, Codex und ChatGPT (April 2026)
Emre Demir
Emre Demir

Posted on • Originally published at apidog.com

GPT-5.5 Preise: Detaillierte Kostenaufschlüsselung für API, Codex und ChatGPT (April 2026)

OpenAI hat am 23. April 2026 mit der Einführung von GPT-5.5 die Token-Preise der GPT-5-Linie verdoppelt. Die Kosten für Input steigen von $2,50 auf $5,00 pro Million Tokens, Output von $15,00 auf $30,00 pro Million. Die Pro-Preise bleiben bei $30/$180. In diesem Artikel findest du einen technischen, praxisorientierten Überblick, wie du die neuen Preismodelle effizient für deine Projekte einsetzt und wie du Kosten vorab berechnest.

Probiere Apidog noch heute aus

Dieser Leitfaden behandelt alle Preismodelle: Standard-API, Batch, Flex, Priority, Pro-Tarife, Codex-Limits pro Plan und zeigt, wie du die Kosten deiner tatsächlichen Workloads berechnest, bevor du den Standardmodus wechselst.

Für einen Modellüberblick siehe Was ist GPT-5.5. Für eine Entwickleranleitung siehe Wie man die GPT-5.5 API benutzt.

TL;DR

Oberfläche Input / M Output / M
GPT-5.5 Standard-API $5,00 $30,00
GPT-5.5 Pro-API $30,00 $180,00
GPT-5.5 Batch (50 % Rabatt) $2,50 $15,00
GPT-5.5 Flex (50 % Rabatt) $2,50 $15,00
GPT-5.5 Priority (2,5×) $12,50 $75,00
GPT-5.4 Standard-API $2,50 $15,00
GPT-5.4-mini API $0,25 $2,00

Fazit: GPT-5.5 ist pro Token 2× teurer als GPT-5.4. OpenAI gibt an, dass sich dies durch ca. 20% effizientere Token-Nutzung relativiert.

Die wichtigsten Zahlen

  • GPT-5.5: $5,00/M Input-Tokens, $30,00/M Output-Tokens
  • GPT-5.5 Pro: $30,00/M Input-Tokens, $180,00/M Output-Tokens
  • Kontextfenster: 1 Mio Tokens (Input + Output). Reasoning-Tokens werden auf das Kontextfenster und die Output-Abrechnung angerechnet.

OpenAI veröffentlicht Preise auf der API-Preisseite.

Batch, Flex und Priority

OpenAI bietet drei alternative Preisstufen für unterschiedliche Anforderungen:

Batch-API

  • Anfragen werden über den Batch-Endpunkt eingereicht und mit 50 % Rabatt bearbeitet.
  • Bearbeitung innerhalb von 24 Stunden.
  • Ideal für: nächtliche Auswertungen, historische Datenverarbeitung, Workflows mit Latenzbudget in Stunden.

Preis: $2,50 (Input) / $15,00 (Output) pro Million Tokens – entspricht GPT-5.4 Standard.

Flex-Verarbeitung

  • Ebenfalls 50 % Rabatt.
  • Latenz variiert von Sekunden bis Minuten.
  • Geeignet, wenn Latenz unkritisch ist, aber (fast) synchrone Antworten benötigt werden.

Priority-Verarbeitung

  • 2,5× Standardtarif ($12,50 / $75,00 bei GPT-5.5).
  • Schneller Durchsatz, höhere Rate-Limits, kaum Warteschlange.
  • Nutze Priority für Live-Anwendungen, bei denen Endlatenz entscheidend ist.

Kostenberechnung für den Thinking-Modus

Mit GPT-5.5 kann der "reasoning.effort" Parameter gesetzt werden. Er verändert die Anzahl der verwendeten Tokens pro Anfrage, nicht den Preis pro Token. Die Multiplikatoren:

Aufwand Output-Token-Multiplikator Wann zu verwenden
low (Standard) Routineaufrufe
medium 1,3–2× Mehrschrittige Codierung, strukturierte Generierung
high 2–4× Tiefgehende Recherche, Korrektheitsprüfung
xhigh 3–8× Agenten-Loops, dichte Planung

Praxis-Tipp: Ein einziger xhigh-Call mit langem Prompt kann >20.000 Reasoning-Tokens verbrauchen. Bei $30/M Output sind das $0,60 nur für Reasoning – Output-Kosten kommen dazu. Kalkuliere daher das Budget pro Arbeitslast, nicht pro Anfrage.

Codex-Preise

Der Zugang zu Codex hängt vom ChatGPT-Plan ab, nicht vom reinen Tokenverbrauch:

Plan Codex-Zugang GPT-5.5 Anmerkungen
Kostenlos Ja (limitiert) Ja Strenge Wochenlimits
Go Ja (limitiert) Ja 2× kostenlose Limits
Plus ($20/Monat) Ja Ja Standard-Limits
Pro ($200/Monat) Ja Ja + Thinking + Pro Höchste Benutzerlimits
Business Ja Ja Platzbasiert
Enterprise/Bildung Ja Ja Vertragsbasiert

Praxis-Tipp: Wer viel im Coding-Terminal arbeitet, fährt mit Plus oder Pro günstiger als mit API-Einzelabrechnung – insbesondere ab einigen 100k Tokens/Tag. Der Leitfaden zum kostenlosen Einstieg zeigt, wie du loslegen kannst.

Vergleich: GPT-5.5 vs. andere Modelle

Wann lohnt sich GPT-5.5? Vergleiche Input-/Output-Kosten:

Modell Input / M Output / M Kosten pro 1.000 Output-Tokens
GPT-5.4-mini $0,25 $2,00 $0,0020
GPT-5.4 $2,50 $15,00 $0,0150
GPT-5.5 $5,00 $30,00 $0,0300
GPT-5.5 Pro $30,00 $180,00 $0,1800

Entscheidungshilfe:

  • Viel Output, geringes Risiko (Klassifikation, Zusammenfassung, simpler Chat): GPT-5.4-mini
  • Produktion, 5.4 erfüllt Qualitätsanspruch: GPT-5.4
  • Anspruchsvolle Codierung, Agenten, Forschung: GPT-5.5
  • Kritischer Output, Fehlererkennung teuer: GPT-5.5 Pro

Beispiel: Kosten pro Aufgabe für einen Coding-Agenten

Eine typische API-Session mit GPT-5.5 und reasoning.effort: "medium":

  • Input-Tokens: ~15.000 (Repo-Kontext + Prompt)
  • Output-Tokens: ~3.000 (Code + Erklärung)
  • Reasoning-Tokens: ~6.000 (mittlerer Aufwand)

Kosten pro Aufgabe (Standardpreise):

Input:   15 K × $5,00 / M  = $0,075
Output: (3 K + 6 K) × $30,00 / M = $0,27
Gesamt: $0,345 pro Aufgabe
Enter fullscreen mode Exit fullscreen mode

Auf GPT-5.4:

Input:   15 K × $2,50 / M  = $0,0375
Output:  9 K × $15,00 / M  = $0,135
Gesamt: $0,1725 pro Aufgabe
Enter fullscreen mode Exit fullscreen mode

Fazit: GPT-5.5 kostet das Doppelte pro Aufgabe. Das Upgrade lohnt sich, wenn die höhere Genauigkeit teure Wiederholungen einspart.

Kostenkontrollen: Sofort umsetzbare Maßnahmen

Implementiere diese fünf Hebel direkt zum Start, um Kosten im Griff zu behalten:

  1. Harte max_output_tokens-Limits – z.B. Standard 2.000, nur bei Bedarf mehr.
  2. Strikte JSON-Schemas – Fehlerhafte Ausgaben verursachen teure Wiederholungen.
  3. Nach Schwierigkeit routen – Einfache Aufgaben an 5.4-mini, Komplexes an 5.5 senden.
  4. Batch für alles Offline nutzen – Auswertungen, Reports, Nachfüllungen = 50 % Rabatt.
  5. usage.reasoning_tokens überwachen – Unerwartet hohe Reasoning-Kosten früh erkennen und alarmieren.

Monatliche Kostenübersicht pro Plan

Wähle den passenden ChatGPT-Plan für deinen Use-Case:

Plan Monatlicher Preis Am besten geeignet für
Kostenlos $0 GPT-5.5 via Codex testen
Go $4 / Monat Studierende, Gelegenheitsnutzer (2× Limits)
Plus $20 / Monat Einzelentwickler, tägliche Nutzung
Pro $200 / Monat Power-User, Thinking und Pro in ChatGPT
Business $25 / Sitzplatz / Monat Teams, gemeinsame Workspaces
Enterprise / Bildung Kundenspezifisch Vertragsbasiert mit SLA

Praxis-Tipp: Wer >4 Mio Output-Tokens/Monat verarbeitet, spart mit ChatGPT Pro + Codex CLI gegenüber der API-Abrechnung – solange die Arbeitslast in das 400k Token Kontextfenster passt.

Preisänderungssignale: Darauf achten

Zwei wichtige Indikatoren für die Preisentwicklung:

  • Allgemeine Verfügbarkeit von GPT-5.5 – Preise könnten mit Konkurrenz (Claude, Gemini, Open-Weight-Modelle) sinken. Siehe Vellum-Leaderboard.
  • Demokratisierung des Pro-Modells – OpenAI hat Pro-Preise bisher oft 3–6 Monate nach Release gesenkt. Plane mit Spielraum.

FAQ

Reduziert Caching die Input-Kosten?

Ja, gecachte Input-Tokens werden günstiger abgerechnet. Details auf der OpenAI-Preisseite. Cache-Systemprompts, Tool-Schemas, Repo-Kontext.

Gibt es Mengenrabatt?

Kein offizieller. Individuelle Tarife sind für Großkunden möglich. Bei >$1 Mio/Jahr: Vertrieb kontaktieren.

Verursacht Thinking-Modus Zusatzkosten?

Nein, aber der höhere Tokenverbrauch erhöht die Kosten.

Wird Codex CLI separat abgerechnet?

Nur bei API-Key-Login. Bei ChatGPT-Login über die Plangebühr.

Günstigster Einstieg für GPT-5.5?

Kostenloser oder Go-Plan plus Codex CLI. Siehe Leitfaden zum kostenlosen Einstieg für Details.

Top comments (0)