DEV Community

Cover image for re:Invent25, jour 1 : « boom »

re:Invent25, jour 1 : « boom »

Je suis le "What's new" d'AWS de façon quasi quotidienne depuis plus de 7 ans. J'ai trouvé certaines éditions de re:Invent excitantes, d'autres décevantes.. mais j'ai rarement éprouvé le sentiment de submersion face à l'explosion d'annonces du jour.

IA : des agents autonomes

L'annonce la plus importante de la Keynote de Matt Garman ↗️ est sans doute la disponibilité immédiate de 3 agents à durée de vie longue.

Jusqu'ici, l'IA agentique s'appuie sur des agents qui doivent à chaque tâche redécouvrir le contexte (comment est structuré le projet, quels profils CLI sont dispo pour qu'ils accèdent aux API, ce qu'ils ont le droit de faire ou non, les choix d'architecture) ; il y a besoin d'interactions fréquentes avec le "pilote" pour les garder "on-track". L'agent Kiro autonome↗️ se propose de résoudre cette limite avec des agents tournant en tâche de fond et capitalisant sur l'ensemble des tâches effectuées. Arrêtons de babysitter nos agents et commençons à les manager !

Deux autres agents font leur entrée :

  • l'agent DevOps ↗️ qui, en situation d'incident, va pouvoir proactivement analyser l'ensemble des logs, métriques, et déterminer la cause de l'incident, proposer des actions résolutives et correctives.
  • l'agent de Sécurité ↗️ qui va pouvoir évaluer tant le code lors de sa production (à chaque PR) que réaliser des Pentests.

Ces agents sont le déploiement, à l'échelle, des technologies que j'ai pu présenter lors du dernier AWS Poitiers User Group :

  • Des frameworks d'agents comme Strands permettent de donner aux LLM des "yeux" et des "mains" pour voir et agir ;
  • Bedrock AgentCore, service qui héberge les agents, permet maintenant ↗️ d'évaluer les agents (ont-ils résolu la tâche ? en faisant appel aux bons outils ?) et de contrôler rigoureusement leur exécution par des politiques exprimées en langage naturel ("tu ne feras pas une offre commerciale à un client en recouvrement") traduites dans un langage formel, Cedar.

IA : les modèles d'AWS, ceux des tiers.. et le vôtre?

Pour faire tourner ces agents, au début, il faut un LLM.

  • AWS vient d'ajouter 20 modèles "open-weight" (deepseek, GPT, ...) à Bedrock
  • La firme de Seattle publie également la v2 de sa suite de modèles Nova, avec de vraies innovations : Nova Omni ↗️ un modèle multimodal capable de raisonnements avancés, Nova Sonic v2 **↗️, modèle speech-to-speech à basse latence qui alimente désormais **Amazon Connect↗️, le centre de contact omni-canal d'AWS qui est maintenant présenté comme "staffé par des agents humains et IA", ainsi que Nova Lite et Pro.
  • Nova Forge ↗️ propose de partir de ces modèles et d'entraîner sur vos données (complétées par des données fournies par AWS pour que le modèle ne perde pas ses capacités généralistes) afin d'acquérir une vraie compréhension de votre métier, qu'un simple RAG ne permet pas d'obtenir.
  • Nova Act ↗️, modèle capable sans ajout d'outil tiers, de naviguer sur le web ou d'exécuter du code.

Cela sans compter AWS Transform, un service d'agents dédiés à la refonte du legacy (sortie de VM Ware, d'Oracle, de Windows... ) ou l'inclusion dans d'autres services d'agents d'upgrade (EMR permet de mettre à jour du vieux code Spark↗️ et il faut s'attendre à voir la même chose sur des Lambda dans les prochains jours)

Une infra "IA-ready"

De nombreux services annoncent des évolutions pour être adaptés à l'IA :

  • comme API Gateway (cf. post sur Pre:Invent), Bedrock AgentCore Runtime supporte maintenant du streaming bidirectionnel ↗️,
  • S3 Vector ↗️ devient généralement disponible, s'intègre avec Bedrock Knowledge bases et permet des recherches à partir de 100ms de latence (pour les recherches fréquentes) à 1s (pour les moins fréquentes) sur des milliards de vecteurs.
  • Le Support annonce des plans ↗️ où un premier niveau de réponse par l'IA permet, à moindre coût, d'avoir un opérateur humain en moins de 30min sur un incident de prod.

Et pour les autres services ?

Lambda connaît deux évolutions majeures :

  • Lambda Durable Functions↗️ permet d'interrompre en cours d'exécution, puis de reprendre des exécutions Lambda jusqu'à 1 an après (après un "sleep" ou réception d'un callback), sans payer aucun frais pendant la phase de pause.
  • Lambda Managed Instances↗️ permet à ceux qui ont des charges de travail relativement stables ou des besoins de hardware spécifiques (pas encore de GPU, mais on parie que ça va venir?) de bénéficier du tarif d'EC2 avec la simplicité opérationnelle de Lambda.

Et aussi

  • S3 Tables offre désormais une classe de stockage type "Intelligent-tiering"↗️ qui permet de réduire fortement les coûts des tables Iceberg.
  • Les bases de données↗️ offrent désormais des savings plans. Mieux vaut tard que jamais !! Economies massives à la clé. Un database savings plan en action
  • S3 Storage Lens↗️ offre plus de visibilité sur l'utilisation du stockage s3 (distribution de la taille des objets, requêtes les plus coûteuses etc.)
  • SageMaker offre désormais MLFlow en mode serverless↗️.. gratuitement ??? (Pricing – The new serverless MLflow capability is offered at no additional cost. Note there are service limits that apply) à suivre.

Top comments (0)