Aws Summit Paris 2026

AWS Summit Paris 2026 : l’IA agentique, nouveau standard du cloud

Auteur : Ghada Nefzaoui, Ingénieure DevOps Cloud
Ghada Nefzaoui Ingénieure DevOps Cloud
16 mins
22 avril 2026
Dans cet article :
  1. AWS Summit Paris 2026 : retour sur une journée placée sous le signe de l'IA agentique
  2. L'IA agentique prend le leadership : les nouveautés présentées lors de l'AWS Summit Paris 2026 ?
  3. Agents IA adaptatifs : de la théorie à la production
  4. AWS Lambda vu de l'intérieur : cold start, Firecracker et optimisations
  5. IA agentique et DevSecOps : les Frontier Agents AWS
  6. L'aventure d'une requête HTTP : les fondamentaux restent rois
  7. Ce qu'il faut retenir de l'AWS Summit Paris 2026 : l'IA agentique en production

AWS Summit Paris 2026 : retour sur une journée placée sous le signe de l’IA agentique

Le 1er avril 2026, le Palais des Congrès de Paris accueillait l’édition annuelle de l’AWS Summit France, un événement gratuit rassemblant chaque année plusieurs milliers de professionnels du cloud autour de keynotes, sessions techniques, workshops et démonstrations. En tant qu’Ingénieure DevOps Cloud chez Synapsys, j’ai eu l’opportunité d’y participer et de suivre un parcours ciblé sur les sujets au cœur de notre activité : IA agentique, architecture serverless, DevSecOps et pratiques cloud-native.

Cette édition 2026 avait une résonance particulière : elle marquait les 20 ans d’AWS. Deux décennies qui ont transformé l’informatique mondiale, et une promesse renouvelée de 100% de disponibilité portée par Amélie Clugnet, Directrice AWS France. Les chiffres de la présence AWS en France témoignent de cet ancrage : 6 milliards d’euros d’investissement, plus de 300 partenaires, 1 000 salariés et des dizaines de clients parmi les plus grands noms de l’économie française : Canal+, Thales, Schneider Electric, SNCF, France.tv, Qonto, Société Générale.

Le fil rouge de cette édition pouvait se résumer en une phrase : l’IA agentique n’est plus un sujet d’exploration, c’est un sujet de mise en production.

Cta Enquête 2026

L’IA agentique prend le leadership : les nouveautés présentées lors de l’AWS Summit Paris 2026 ?

240 outils AWS : le constat qui justifie l’arrivée de l’IA agentique

La keynote d’ouverture, animée par Amélie Clugnet (Directrice AWS France), Stephan Hadinger (Directeur des Technologies AWS France) et Stéphane Israël (Managing Director de l’AWS European Sovereign Cloud), a posé le ton dès les premières minutes.

Stephan Hadinger a résumé l’enjeu avec une formule qui a fait mouche dans la salle : « La bonne nouvelle, c’est qu’on propose 240 outils. La moins bonne, c’est que personne n’est capable de les maîtriser chacun. L’IA agentique apporte ce savoir-faire et cette expertise. »

240 outils AWS disponibles. Un chiffre qui illustre à lui seul la complexité croissante des environnements cloud, et la nécessité d’une nouvelle couche d’intelligence pour les orchestrer.

Amazon Bedrock AgentCore : la brique centrale d’industrialisation

C’est là qu’entre en scène Amazon Bedrock AgentCore, la brique centrale présentée par AWS pour industrialiser le déploiement d’agents IA en production. AgentCore propose un Runtime pour le déploiement scalable, un module Memory pour la persistance du contexte conversationnel, un Gateway unifiant l’accès aux outils via le protocole MCP (Model Context Protocol), ainsi que des modules d’Identity et d’Observability.

Amazon Bedrock : le catalogue multi-modèles le plus large du marché

La keynote a également mis en avant Amazon Bedrock comme la plateforme offrant le catalogue de modèles le plus large du marché : Anthropic (Claude Opus, Sonnet, Haiku), Amazon, Google, Meta, Mistral AI, Cohere, DeepSeek, OpenAI, Stability AI, NVIDIA et bien d’autres. Une offre multi-modèles conçue pour permettre aux entreprises de choisir le bon modèle pour chaque cas d’usage, sans lock-in fournisseur.

Les annonces produits majeures de l’AWS Summit 2026

Plusieurs nouveautés ont été dévoilées lors de cette keynote :

Kiro : le nouvel IDE IA d’AWS

Le nouvel IDE IA d’AWS, conçu pour aller du prototype à la production grâce à des agents qui raisonnent et agissent. Non réservé aux seuls développeurs, il permet à toutes les équipes d’adopter une approche agentique dans leur quotidien. Il intègre des pipelines intelligents et des architectures évolutives.

AWS Transform : moderniser les workloads legacy

Présenté comme le premier service IA agentique dédié à la transformation des workloads legacy (VMware, Mainframe, Windows). Le résultat affiché est concret : 1,35 million d’heures économisées. La variante AWS Transform Custom va plus loin en permettant de créer des agents de transformation personnalisés pour moderniser n’importe quel code, API ou runtime (par exemple, migrer une fonction Lambda de Python 3.8 vers 3.13 simplement en langage naturel).

AWS Graviton5 : le CPU le plus efficace jamais conçu par AWS

Le CPU le plus efficace jamais conçu par AWS : 192 cores et +25% de performance par rapport à la génération précédente. Un levier direct d’optimisation coût/performance pour toutes les architectures cloud, qu’elles soient serverless ou conteneurisées.

AWS Lambda Durable Functions : des workflows IA jusqu’à 1 an

Une évolution majeure du service Lambda : la possibilité de construire des applications long-running et des workflows IA durables, sans infrastructure additionnelle. Les fonctions durables supportent les retries automatiques et peuvent tourner jusqu’à 1 an, avec un mécanisme d’exécution/checkpoint/suspend/replay. Un changement de paradigme pour les workflows IA qui nécessitent de la persistance au-delà des 15 minutes historiquement imposées par Lambda.

Pour aller plus loin : Lambda Lens : découverte et analyse automatisées des fonctions Lambda avec l’IA

Amazon Quick : l’application agentique unifiée

Une nouvelle application agentique unifiée pour aller d’insights à des actions en quelques minutes. Elle agrège Research (analyses approfondies), Sight (visualisation de données), Flows (automatisation de workflows), Chat Agents, Spaces (bases de connaissances) et Automate (automatisation end-to-end). Une interface au-dessus de l’ensemble de l’écosystème IA AWS.

Les témoignages clients : Canal+, H Company, Bureau Veritas

Stéphane Baumier, CTO de Canal+, a partagé comment le groupe a créé il y a deux ans une AI Factory permettant à chaque ingénieur d’accéder à des technologies IA dans un environnement industrialisé et sécurisé.

Reposant sur Amazon Bedrock et un modèle Anthropic, Canal+ a déployé des agents pour répondre de façon contextuelle aux questions de ses abonnés, encadrés par des Guardrails.

Gautier Cloix (CEO de H Company, startup française de référence en IA agentique) et Marc Roussel (Bureau Veritas) ont complété le tableau avec leurs retours d’expérience respectifs sur l’industrialisation de l’IA dans des contextes métiers exigeants.

Agents IA adaptatifs : de la théorie à la production

Les pièges qui condamnent les agents IA à rester en POC

Cette session a démarré avec un chiffre percutant : 85% des POC d’agents IA ne passent jamais en production.

Un constat que beaucoup d’équipes reconnaissent : on prototype rapidement, on se retrouve avec un système qui fonctionne en démo mais qui ne passe pas à l’échelle.

Les équipes ont identifié quatre causes principales à cet échec systémique : logique codée en dur, conceptions monolithiques, dépendance trop forte au framework, et sécurité traitée en second temps.

La réponse proposée tient en un concept : l’architecture adaptative. Des modèles flexibles qui évoluent avec l’entreprise, reposant sur quatre piliers :

  • architecture pilotée par la configuration,
  • composants modulaires,
  • flexibilité du framework,
  • et la règle des 80/20.

Lire aussi : Chatbots, agents IA et RAG : choisir la bonne solution IA

La règle des 80/20 : partager l’infrastructure, configurer le métier

Le principe est simple et puissant : 80% de l’infrastructure est partagée entre tous les agents d’une organisation (AgentCore Runtime, infrastructure MCP, sécurité, traçage) et seulement 20% est configuré spécifiquement par secteur ou cas d’usage (agents spécialisés, sélection d’outils, vocabulaire métier, choix de modèles d’agents).

La conséquence directe : même architecture + mêmes types d’agents + configuration différente = secteur différent. On construit une fois, on déploie partout.

Amazon Bedrock Agentcore

Les trois types d’agents et leurs patterns d’orchestration

La session a présenté une taxonomie claire des agents et des patterns à associer selon le besoin :

  • Agent basé sur les tâches : exécute des tâches spécifiques et bien définies, stateless, résultats en secondes. Cas d’usage : recherche de vols, comparaison d’options, conversion de devises.
  • Agent conversationnel : gestion de l’état, personnalisation et mémoire. Cas d’usage : recommandations adaptées au profil utilisateur, interactions multi-tours.
  • Agent autonome : objectifs autodirigés, plusieurs étapes, adaptation en temps réel. Cas d’usage : planification complète d’itinéraire avec ajustement en cas de vol annulé ou météo défavorable.

Ces types se combinent dans trois patterns d’orchestration :

  • hiérarchique (un orchestrateur central coordonne des sous-agents),
  • séquentiel (pipeline en étapes : ingestion → validation → analyse → rapport)
  • et collaboratif (agents pairs partageant un contexte mémoire commun, idéal pour l’analyse multi-perspectives : financière, juridique, conformité, risques).

Un guide pratique a été partagé pour choisir le bon pattern : délégation simple → hiérarchique ; analyse à perspectives multiples → collaboratif ; transformations étape par étape → séquentiel ; tâches autogérées longue durée → agent autonome unique ; opérations rapides sans état → basé sur une seule tâche.

MCP : le standard d’interopérabilité qui s’impose

Le Model Context Protocol (MCP) avec Amazon Bedrock AgentCore a fait l’objet d’une attention particulière.

Ses atouts : création d’outils sans code, connexion transparente aux serveurs MCP existants, découverte d’outils intelligents, architecture de sécurité intégrée, et compatibilité avec tous les frameworks.

Thales Digital Factory a illustré concrètement la mise en œuvre de cette approche avec AWS Prototyping pour industrialiser ses agents dans des environnements réglementés critiques, preuve que ces patterns passent à l’échelle en conditions réelles.

AWS Lambda vu de l’intérieur : cold start, Firecracker et optimisations

Dans les coulisses de Lambda : AWS Firecracker et le cycle d’exécution

Session de niveau 300 (Advanced) incontournable pour quiconque travaille quotidiennement avec Lambda.

Matthieu Napoli a ouvert la boîte noire : que se passe-t-il réellement quand Lambda s’exécute ? L’infrastructure n’est pas « sans serveur », c’est une infrastructure massivement optimisée, reposant sur AWS Firecracker, qui démarre une micro-VM, télécharge le runtime, télécharge le code applicatif puis démarre la Lambda Runtime Interface.

Le Runtime interroge ensuite l’interface via GET /next pour récupérer l’événement, exécute le handler, et poste la réponse.

Le cold start : anatomie, chiffres réels et solutions

Premier enseignement contre-intuitif : le cold start ne touche que 0,1% des invocations en production, un chiffre souvent surestimé dans les débats d’architecture. La première invocation coûte environ 350ms facturés (200ms pour démarrer l’instance et le runtime + 100ms d’invocation + 50ms post-response), contre seulement 150ms pour les invocations suivantes (warm start).

Les 4 mécanismes natifs AWS contre le cold start

AWS a développé quatre mécanismes natifs pour atténuer le cold start :

  • sandbox pre-warming et instance pre-warming (réchauffage proactif des environnements)
  • runtime caching (mise en cache des runtimes fréquemment utilisés)
  • container block streaming (téléchargement progressif du code applicatif sans attendre le chargement complet).

Les 3 leviers côté développeur

Du côté développeur, trois leviers principaux : AWS Lambda SnapStart (snapshot de l’état initialisé pour éliminer le cold start à chaque invocation), Application size (réduire la taille du package de déploiement) et Provisioned Concurrency (maintenir des instances chaudes en permanence pour les chemins critiques).

Cas d’usage avancés de Lambda à explorer

La session a également exploré des cas d’usage avancés qui ouvrent de nouvelles perspectives : streaming de logs en temps réel, montage de S3 comme filesystem dans Lambda, développement live dans Lambda, et utilisation de Lambda comme sandbox isolée pour exécuter du code non fiable.

Des cas concrets directement applicables dans nos architectures serverless.

IA agentique et DevSecOps : les Frontier Agents AWS

L’IA agentique, prochain standard du DevSecOps

La session la plus marquante de la journée. Pour contextualiser, deux chiffres Gartner : 33% des applications incluront de l’agentique en 2028 contre moins de 1% en 2024, et 15% des décisions au travail seront prises de manière autonome par des agents d’ici 2028.

Le défi est réel : des applications de plus en plus complexes, une télémétrie fragmentée entre de multiples outils, et un mode pompier permanent qui empêche les améliorations systématiques.

L’AWS Security Agent : le shift-left security passe à l’acte

L’AWS Security Agent (Preview) a été présenté avec une promesse claire : « Déployer en toute confiance des applications sécurisées. » Il offre une sécurité proactive tout au long du cycle de développement, des conseils d’experts adaptés au contexte de l’application, et surtout du pentesting à la demande.

La démonstration live a été le moment fort de la session : l’agent a effectué un pentest complet sur l’OWASP Juice Shop, application web volontairement vulnérable, référence standard de la communauté sécurité. Sans aucune intervention humaine, l’agent a parcouru l’application, identifié les vulnérabilités et généré les correctifs correspondants.

Voir ce niveau d’autonomie appliqué à la sécurité applicative illustre concrètement ce que « shift-left security » signifie à l’ère de l’IA agentique : les failles sont détectées et corrigées avant même que le code ne parte en production.

L’AWS DevOps Agent : de la réactivité à la proactivité opérationnelle

L’AWS DevOps Agent (Preview) a été présenté comme « l’agent de l’excellence opérationnelle : moins d’alertes pour de meilleures nuits. »

Il assure l’analyse permanente des incidents et aide à leur résolution, s’intègre nativement avec les outils d’observabilité existants (Dynatrace, New Relic, Datadog, Splunk, Amazon CloudWatch) et comprend l’environnement technique complet pour réduire le MTTR et passer d’un mode pompier à une proactivité opérationnelle réelle.

Retour d’expérience Accor : des résultats mesurés et probants

Benoit Tinseaux a partagé le POC conduit chez Accor Group sur le AWS DevOps Agent. Le périmètre était défini autour de trois critères de succès concrets : est-ce que ça réduit le MTTR ? Est-ce que l’agent trouve les bonnes choses ? Quel est l’effort de déploiement dans notre écosystème ?

L’expérimentation a démarré en environnement de développement avec des incidents simulés via AWS Fault Injection Service et Neoload, avant de valider les critères de passage en production.

Résultats chiffrés du POC Accor : AWS DevOps Agent

  • Jusqu’à 80% d’amélioration du MTTR (délai d’identification hypothèse + root cause)
  • 90% des investigations de l’agent plus rapides que les investigations manuelles
  • 69,5% de pertinence sur la première hypothèse proposée vs la vraie root cause
  • 82,6% de pertinence sur les 3 premières hypothèses combinées
  • 4/5 score moyen de pertinence de l’analyse root cause
  • 3.8/5 score moyen des recommandations de remédiation
  • Note importante : l’analyse guidée par un OPS et la validation des remédiations restent indispensables

Ces résultats sont particulièrement significatifs pour les équipes opérant des infrastructures complexes : l’agent se montre d’autant plus performant que l’environnement est complexe, notamment pour la corrélation d’événements et l’identification de comportements récurrents entre services AWS.

L’aventure d’une requête HTTP : les fondamentaux restent rois

Du navigateur au backend : les couches traversées par une requête HTTP

Une session délibérément atypique pour clore la journée. Pascal Martin a invité l’audience à suivre le parcours d’une requête HTTP, de sa naissance dans un navigateur jusqu’à sa résolution dans un service backend, en traversant toutes les couches d’une architecture moderne : résolution DNS, CDN, load balancer, API Gateway, containers, bases de données, cache.

Maîtriser les fondamentaux : la compétence qui différencie à l’ère de l’IA agentique

Au-delà de la technique, le propos était presque philosophique : notre métier est un assemblage de compétences et de choix technologiques. Chaque brique rencontrée sur le chemin représente une décision d’architecture, un compromis entre performance et simplicité, une opportunité d’optimisation, et une étape potentielle dans l’évolution de carrière d’un ingénieur.

Vingt ans après les débuts d’AWS, et malgré la sophistication croissante des outils disponibles, maîtriser les fondamentaux reste une compétence profondément différenciante.

Ce qu’il faut retenir de l’AWS Summit Paris 2026 : l’IA agentique en production

L’AWS Summit Paris 2026 confirme et amplifie des tendances que nous observons dans nos missions au quotidien. Au-delà du volume des annonces, c’est la maturité opérationnelle de l’IA agentique qui ressort comme signal fort.

Les entreprises ne parlent plus de POC, elles partagent des résultats chiffrés, des architectures industrialisées, des leçons apprises en conditions de production.

Dans ce contexte, voici les 5 convictions clés de Synapsys après l’AWS Summit Paris 2026 :

  1. L’IA agentique entre en production : Canal+, Thales, Accor témoignent en production. La question n’est plus « est-ce que ça marche ? » mais « comment on industrialise ? »
  2. La règle 80/20 (AgentCore + MCP) est la clé pour sortir du piège du POC éternel, construire une fois, configurer par secteur.
  3. Le Security Agent change le paradigme DevSecOps : shift-left autonome avec pentesting avant la prod. Un game changer pour nos clients.
  4. Lambda Durable Functions + Graviton5 : le serverless continue d’évoluer profondément et reste un sujet stratégique.
  5. Les fondamentaux restent différenciants : même avec 240 outils disponibles, comprendre ce qui se passe derrière reste une compétence rare et précieuse.

Articles similaires

AWS

Amazon S3 Vectors : Object Serverless Vector Database 

Amazon S3 Vectors, annoncé récemment en avant-première, représente la première solution de stockage cloud avec support natif pour les vecteurs,...

AWS

Retour sur l’AWS Summit Paris 2025 : l’IA en vedette

L'AWS Summit Paris 2025 était centré sur l'intelligence artificielle, avec presque chaque session et annonce abordant comment l'IA transforme les...

AWS

Déploiement de Weaviate sur AWS EC2 : une voie rentable vers le RAG de niveau entreprise

À mesure que les architectures IA natives du cloud évoluent, les équipes font face à des décisions d’infrastructure critiques qui...