DEV Community

Cover image for Prix GPT-5.5 : Analyse Complète des Coûts API, Codex et ChatGPT (Avril 2026)
Antoine Laurent
Antoine Laurent

Posted on • Originally published at apidog.com

Prix GPT-5.5 : Analyse Complète des Coûts API, Codex et ChatGPT (Avril 2026)

OpenAI a doublé le prix par jeton sur la gamme GPT-5 avec la sortie de GPT-5.5 le 23 avril 2026. Le prix d'entrée passe de 2,50 $ à 5,00 $ par million de jetons. Le prix de sortie passe de 15,00 $ à 30,00 $ par million. La tarification Pro reste fixe à 30 $ / 180 $. C'est le titre ; les détails sont là où le coût réel se trouve.

Essayez Apidog dès aujourd'hui

Ce guide couvre toutes les surfaces de tarification : API standard, Batch, Flex et Priorité ; la tarification Pro ; les limites Codex par plan ; et comment calculer le coût de votre charge de travail réelle avant de vous engager dans un changement de modèle par défaut.

Pour un aperçu du modèle, consultez Qu'est-ce que GPT-5.5. Pour le guide du développeur, consultez Comment utiliser l'API GPT-5.5.

En bref

Surface Entrée / M Sortie / M
API standard GPT-5.5 $5.00 $30.00
API Pro GPT-5.5 $30.00 $180.00
Batch GPT-5.5 (50 % de réduction) $2.50 $15.00
Flex GPT-5.5 (50 % de réduction) $2.50 $15.00
Priorité GPT-5.5 (2.5×) $12.50 $75.00
API standard GPT-5.4 $2.50 $15.00
API GPT-5.4-mini $0.25 $2.00

Effet net : GPT-5.5 est 2× GPT-5.4 au niveau du jeton, mais OpenAI revendique une augmentation nette d'environ 20 % de l'indice d'intelligence une fois l'efficacité des jetons prise en compte.

Les chiffres clés

OpenAI a publié les tarifs sur la page de tarification de l'API le jour même du lancement.

  • GPT-5.5 : 5,00 $ par million de jetons d'entrée, 30,00 $ par million de jetons de sortie.
  • GPT-5.5 Pro : 30,00 $ par million de jetons d'entrée, 180,00 $ par million de jetons de sortie.
  • Fenêtre contextuelle : 1 million de jetons sur les deux variantes. Les jetons de raisonnement sont pris en compte dans la fenêtre et dans la facturation de la sortie.

Batch, Flex et Priorité

OpenAI propose trois niveaux alternatifs qui modifient le prix standard.

API Batch

Mettez les requêtes en file d'attente via le point de terminaison Batch et elles s'exécuteront à 50 % du prix standard. Le délai d'exécution est inférieur à 24 heures. Idéal pour :

  • Les évaluations nocturnes sur un ensemble de données complet.
  • Les compléments de données et le retraitement historique.
  • Tout flux de travail où le budget de latence se mesure en heures, et non en secondes.

Avec la tarification Batch, GPT-5.5 coûte 2,50 $ / 15,00 $ par million de jetons ; identique à la tarification standard de GPT-5.4. Pour les charges de travail hors ligne, le doublement du prix disparaît.

Traitement Flex

Flex vous offre également 50 % de réduction sur les tarifs standards, mais le temps d'attente est variable ; de quelques secondes à plusieurs minutes selon la charge. Utilisez Flex lorsque vous pouvez tolérer une latence imprévisible et que vous souhaitez une tarification de niveau Batch avec des réponses quasi-synchrones.

Traitement prioritaire

La Priorité coûte 2,5× le tarif standard (12,50 $ / 75,00 $ par million de jetons sur GPT-5.5) et vous offre un débit plus rapide, des plafonds de limite de débit plus élevés et un temps d'attente quasi nul. Réservez-le pour les expériences utilisateur en direct où la latence de queue impacte la rétention.

Calcul du coût en mode "Réflexion"

Le mode Réflexion de GPT-5.5 utilise le même ID de modèle avec un reasoning.effort plus élevé. Cela ne change pas le prix par jeton ; cela change le nombre de jetons qu'une seule requête utilise. Attendez-vous à ce que le multiplicateur se situe dans trois fourchettes.

Effort Multiplicateur de jetons de sortie Quand l'utiliser
faible (par défaut) La plupart des appels de routine
moyen 1.3–2× Codage multi-étapes, génération structurée
élevé 2–4× Recherche approfondie, révision critique pour la correction
très élevé 3–8× Boucles d'agents avec chaînes d'outils, planification dense

Un seul appel très élevé sur une longue invite peut facilement consommer 20 000 jetons de raisonnement ; à 30 $ par million, cela représente 0,60 $ pour le raisonnement seul, en plus du coût des jetons de sortie finaux.

Budgettez par charge de travail, pas par requête.

Tarification Codex

L'accès à Codex est lié au plan ChatGPT, et non à la facturation par jeton. Au 23 avril 2026, la structure se présente comme suit.

Plan Accès Codex GPT-5.5 Notes
Gratuit Oui (temps limité) Oui Plafonds hebdomadaires stricts
Go Oui (temps limité) Oui 2× plafonds du plan Gratuit
Plus (20 $ / mois) Oui Oui Plafonds standards
Pro (200 $ / mois) Oui Oui + Réflexion + Pro (dans ChatGPT) Plafonds par utilisateur les plus élevés
Business Oui Oui Basé sur le siège
Entreprise / Éducation Oui Oui Basé sur contrat

Pour les utilisateurs qui passent la majeure partie de leur temps dans un flux de travail de codage en terminal, Plus ou Pro est le moyen le moins cher d'utiliser GPT-5.5 ; le forfait mensuel bat même la tarification Batch une fois que vous dépassez quelques centaines de milliers de jetons par jour. Le guide du chemin gratuit couvre le point d'entrée sans coût.

Comparaison : GPT-5.5 vs le reste de la gamme

Quand devez-vous payer pour GPT-5.5 et quand devez-vous conserver GPT-5.4 ou GPT-5.4-mini ? Le calcul du coût dépend de l'intensité de sortie de votre charge de travail.

Modèle Entrée / M Sortie / M Coût par 1 000 jetons de sortie
GPT-5.4-mini $0.25 $2.00 $0.0020
GPT-5.4 $2.50 $15.00 $0.0150
GPT-5.5 $5.00 $30.00 $0.0300
GPT-5.5 Pro $30.00 $180.00 $0.1800

Un flux de décision sommaire :

  • Sortie à volume élevé et à faible risque (classification, résumé, chat simple) : GPT-5.4-mini.
  • Trafic de production général où 5.4 respecte déjà les critères de qualité : GPT-5.4.
  • Codage complexe, travail d'agent multi-étapes, chaînes de recherche : GPT-5.5.
  • Sortie critique pour la correction où une mauvaise réponse est coûteuse à détecter en aval : GPT-5.5 Pro.

Exemple concret : coût d'un agent de codage par tâche

Une session de codage agentique typique via l'API sur GPT-5.5 avec reasoning.effort: "medium" se présente comme suit.

  • Jetons d'entrée par tâche (contexte du dépôt + invite utilisateur) : ~15 000
  • Jetons de sortie par tâche (code + explications) : ~3 000
  • Jetons de raisonnement par tâche (effort moyen) : ~6 000

Coût par tâche avec la tarification standard :

  • Entrée : 15 K × 5,00 $ / M = 0,075 $
  • Sortie : (3 K + 6 K) × 30,00 $ / M = 0,27 $
  • Total : 0,345 $ par tâche de codage terminée.

Exécution de la même charge de travail sur GPT-5.4 :

  • Entrée : 15 K × 2,50 $ / M = 0,0375 $
  • Sortie : 9 K × 15,00 $ / M = 0,135 $
  • Total : 0,1725 $ par tâche de codage terminée.

GPT-5.5 coûte exactement 2× plus par tâche pour le même effort de raisonnement. La mise à niveau est rentable lorsque l'écart SWE-bench (88,7 % contre environ 74 %) permet de réaliser suffisamment de tâches avec succès pour éliminer un deuxième aller-retour. Si une tâche sur huit sur GPT-5.4 nécessite une réécriture manuelle, GPT-5.5 est globalement moins cher.

Contrôles de coûts à intégrer dès le premier jour

Cinq leviers pour maintenir les factures GPT-5.5 sous contrôle :

  • Plafonds stricts pour max_output_tokens. À chaque appel, à chaque fois. Par défaut à 2 000, sauf si vous avez explicitement besoin d'une sortie longue.
  • Schémas JSON stricts. Une sortie mal formée signifie des tentatives de réessai ; les tentatives de réessai sont un appel facturé au prix plein.
  • Routage par difficulté. Aiguillez les requêtes faciles vers GPT-5.4-mini ; faites remonter les difficiles vers GPT-5.5. Un routeur de 10 lignes économise plus que toute optimisation au niveau de l'invite.
  • Utilisez Batch pour tout ce qui est hors ligne. Évaluations, compléments de données, génération de rapports nocturnes ; le tout à 50 % de réduction.
  • Suivez usage.reasoning_tokens. La surprise de facturation sur GPT-5.5 est presque toujours liée aux dépenses en jetons de raisonnement à effort élevé. Soyez alerté.

Estimation du coût mensuel par plan

Si vous choisissez un niveau ChatGPT pour l'accès à GPT-5.5, voici ce que chaque plan comprend :

Plan Prix mensuel Meilleur usage
Gratuit $0 Essayer GPT-5.5 via Codex avant de s'engager
Go $4 / mois Étudiants et utilisateurs légers souhaitant 2× les plafonds du plan Gratuit
Plus $20 / mois Développeurs individuels utilisant Codex + ChatGPT quotidiennement
Pro $200 / mois Utilisateurs expérimentés souhaitant Réflexion et Pro dans ChatGPT
Business $25 / siège / mois Équipes ayant besoin d'espaces de travail partagés
Entreprise / Éducation Personnalisé Basé sur contrat avec SLA

Pour quiconque exécute plus de ~4 millions de jetons de sortie par mois sur l'API, le plan Pro dans ChatGPT plus l'interface de ligne de commande (CLI) de Codex s'avère moins cher que la facturation API à l'usage, tant que la charge de travail tient dans la fenêtre contextuelle de 400 K de la CLI.

Signaux de changement de prix à surveiller

Deux signaux à suivre si vous établissez un budget à long terme :

  • La disponibilité générale (GA) de l'API GPT-5.5. Les prix pourraient baisser à mesure qu'OpenAI répond à la pression concurrentielle d'Anthropic Claude Mythos, de Gemini 3.5 et des modèles à poids ouverts évalués dans le classement Vellum.
  • Démocratisation du modèle Pro. OpenAI a historiquement baissé les prix du niveau Pro dans les 3 à 6 mois suivant chaque publication. Ne supposez pas que les 30 $ / 180 $ d'aujourd'hui sont permanents ; ne supposez pas non plus qu'ils baisseront.

FAQ

Le caching réduit-il le coût d'entrée ? Oui. Les jetons d'entrée mis en cache sur GPT-5.5 sont facturés à une fraction du tarif standard ; la page de tarification d'OpenAI indique le multiplicateur exact. Mettez en cache tout ce que vous réutilisez dans plus d'une requête (invites système, schémas d'outils, contexte de dépôt).

Y a-t-il une réduction de volume ? Pas une réduction publiée. Les contrats d'entreprise incluent souvent des tarifs personnalisés, et OpenAI ajuste les prix en fonction de l'utilisation soutenue. Parlez aux ventes au-delà de sept chiffres de dépenses annuelles.

Le mode "Réflexion" coûte-t-il en supplément en plus de la tarification par jeton ? Non. Il coûte plus cher parce qu'il utilise plus de jetons, pas parce que le tarif par jeton change.

L'utilisation de la CLI Codex est-elle facturée séparément de l'utilisation de l'API ? Seulement si vous vous connectez avec une clé API. Les connexions ChatGPT facturent le coût du plan ; les connexions par clé API facturent le compte basé sur l'utilisation.

Quel est le moyen le moins cher d'essayer GPT-5.5 ? Le plan Gratuit ou Go plus la CLI Codex. Consultez notre guide du chemin gratuit pour toutes les options sans coût.

Top comments (0)