Amazon S3 Vectors : Object Serverless Vector Database
Amazon S3 Vectors, annoncé récemment en avant-première, représente la première solution de stockage cloud avec support natif pour les vecteurs,...


Le 1er avril 2026, le Palais des Congrès de Paris accueillait l’édition annuelle de l’AWS Summit France, un événement gratuit rassemblant chaque année plusieurs milliers de professionnels du cloud autour de keynotes, sessions techniques, workshops et démonstrations. En tant qu’Ingénieure DevOps Cloud chez Synapsys, j’ai eu l’opportunité d’y participer et de suivre un parcours ciblé sur les sujets au cœur de notre activité : IA agentique, architecture serverless, DevSecOps et pratiques cloud-native.
Cette édition 2026 avait une résonance particulière : elle marquait les 20 ans d’AWS. Deux décennies qui ont transformé l’informatique mondiale, et une promesse renouvelée de 100% de disponibilité portée par Amélie Clugnet, Directrice AWS France. Les chiffres de la présence AWS en France témoignent de cet ancrage : 6 milliards d’euros d’investissement, plus de 300 partenaires, 1 000 salariés et des dizaines de clients parmi les plus grands noms de l’économie française : Canal+, Thales, Schneider Electric, SNCF, France.tv, Qonto, Société Générale.
Le fil rouge de cette édition pouvait se résumer en une phrase : l’IA agentique n’est plus un sujet d’exploration, c’est un sujet de mise en production.

La keynote d’ouverture, animée par Amélie Clugnet (Directrice AWS France), Stephan Hadinger (Directeur des Technologies AWS France) et Stéphane Israël (Managing Director de l’AWS European Sovereign Cloud), a posé le ton dès les premières minutes.
Stephan Hadinger a résumé l’enjeu avec une formule qui a fait mouche dans la salle : « La bonne nouvelle, c’est qu’on propose 240 outils. La moins bonne, c’est que personne n’est capable de les maîtriser chacun. L’IA agentique apporte ce savoir-faire et cette expertise. »
240 outils AWS disponibles. Un chiffre qui illustre à lui seul la complexité croissante des environnements cloud, et la nécessité d’une nouvelle couche d’intelligence pour les orchestrer.
C’est là qu’entre en scène Amazon Bedrock AgentCore, la brique centrale présentée par AWS pour industrialiser le déploiement d’agents IA en production. AgentCore propose un Runtime pour le déploiement scalable, un module Memory pour la persistance du contexte conversationnel, un Gateway unifiant l’accès aux outils via le protocole MCP (Model Context Protocol), ainsi que des modules d’Identity et d’Observability.
La keynote a également mis en avant Amazon Bedrock comme la plateforme offrant le catalogue de modèles le plus large du marché : Anthropic (Claude Opus, Sonnet, Haiku), Amazon, Google, Meta, Mistral AI, Cohere, DeepSeek, OpenAI, Stability AI, NVIDIA et bien d’autres. Une offre multi-modèles conçue pour permettre aux entreprises de choisir le bon modèle pour chaque cas d’usage, sans lock-in fournisseur.
Plusieurs nouveautés ont été dévoilées lors de cette keynote :
Le nouvel IDE IA d’AWS, conçu pour aller du prototype à la production grâce à des agents qui raisonnent et agissent. Non réservé aux seuls développeurs, il permet à toutes les équipes d’adopter une approche agentique dans leur quotidien. Il intègre des pipelines intelligents et des architectures évolutives.
Présenté comme le premier service IA agentique dédié à la transformation des workloads legacy (VMware, Mainframe, Windows). Le résultat affiché est concret : 1,35 million d’heures économisées. La variante AWS Transform Custom va plus loin en permettant de créer des agents de transformation personnalisés pour moderniser n’importe quel code, API ou runtime (par exemple, migrer une fonction Lambda de Python 3.8 vers 3.13 simplement en langage naturel).
Le CPU le plus efficace jamais conçu par AWS : 192 cores et +25% de performance par rapport à la génération précédente. Un levier direct d’optimisation coût/performance pour toutes les architectures cloud, qu’elles soient serverless ou conteneurisées.
Une évolution majeure du service Lambda : la possibilité de construire des applications long-running et des workflows IA durables, sans infrastructure additionnelle. Les fonctions durables supportent les retries automatiques et peuvent tourner jusqu’à 1 an, avec un mécanisme d’exécution/checkpoint/suspend/replay. Un changement de paradigme pour les workflows IA qui nécessitent de la persistance au-delà des 15 minutes historiquement imposées par Lambda.
Pour aller plus loin : Lambda Lens : découverte et analyse automatisées des fonctions Lambda avec l’IA
Une nouvelle application agentique unifiée pour aller d’insights à des actions en quelques minutes. Elle agrège Research (analyses approfondies), Sight (visualisation de données), Flows (automatisation de workflows), Chat Agents, Spaces (bases de connaissances) et Automate (automatisation end-to-end). Une interface au-dessus de l’ensemble de l’écosystème IA AWS.
Stéphane Baumier, CTO de Canal+, a partagé comment le groupe a créé il y a deux ans une AI Factory permettant à chaque ingénieur d’accéder à des technologies IA dans un environnement industrialisé et sécurisé.
Reposant sur Amazon Bedrock et un modèle Anthropic, Canal+ a déployé des agents pour répondre de façon contextuelle aux questions de ses abonnés, encadrés par des Guardrails.
Gautier Cloix (CEO de H Company, startup française de référence en IA agentique) et Marc Roussel (Bureau Veritas) ont complété le tableau avec leurs retours d’expérience respectifs sur l’industrialisation de l’IA dans des contextes métiers exigeants.
Cette session a démarré avec un chiffre percutant : 85% des POC d’agents IA ne passent jamais en production.
Un constat que beaucoup d’équipes reconnaissent : on prototype rapidement, on se retrouve avec un système qui fonctionne en démo mais qui ne passe pas à l’échelle.
Les équipes ont identifié quatre causes principales à cet échec systémique : logique codée en dur, conceptions monolithiques, dépendance trop forte au framework, et sécurité traitée en second temps.
La réponse proposée tient en un concept : l’architecture adaptative. Des modèles flexibles qui évoluent avec l’entreprise, reposant sur quatre piliers :
Lire aussi : Chatbots, agents IA et RAG : choisir la bonne solution IA
Le principe est simple et puissant : 80% de l’infrastructure est partagée entre tous les agents d’une organisation (AgentCore Runtime, infrastructure MCP, sécurité, traçage) et seulement 20% est configuré spécifiquement par secteur ou cas d’usage (agents spécialisés, sélection d’outils, vocabulaire métier, choix de modèles d’agents).
La conséquence directe : même architecture + mêmes types d’agents + configuration différente = secteur différent. On construit une fois, on déploie partout.

La session a présenté une taxonomie claire des agents et des patterns à associer selon le besoin :
Ces types se combinent dans trois patterns d’orchestration :
Un guide pratique a été partagé pour choisir le bon pattern : délégation simple → hiérarchique ; analyse à perspectives multiples → collaboratif ; transformations étape par étape → séquentiel ; tâches autogérées longue durée → agent autonome unique ; opérations rapides sans état → basé sur une seule tâche.
Le Model Context Protocol (MCP) avec Amazon Bedrock AgentCore a fait l’objet d’une attention particulière.
Ses atouts : création d’outils sans code, connexion transparente aux serveurs MCP existants, découverte d’outils intelligents, architecture de sécurité intégrée, et compatibilité avec tous les frameworks.
Thales Digital Factory a illustré concrètement la mise en œuvre de cette approche avec AWS Prototyping pour industrialiser ses agents dans des environnements réglementés critiques, preuve que ces patterns passent à l’échelle en conditions réelles.
Session de niveau 300 (Advanced) incontournable pour quiconque travaille quotidiennement avec Lambda.
Matthieu Napoli a ouvert la boîte noire : que se passe-t-il réellement quand Lambda s’exécute ? L’infrastructure n’est pas « sans serveur », c’est une infrastructure massivement optimisée, reposant sur AWS Firecracker, qui démarre une micro-VM, télécharge le runtime, télécharge le code applicatif puis démarre la Lambda Runtime Interface.
Le Runtime interroge ensuite l’interface via GET /next pour récupérer l’événement, exécute le handler, et poste la réponse.
Premier enseignement contre-intuitif : le cold start ne touche que 0,1% des invocations en production, un chiffre souvent surestimé dans les débats d’architecture. La première invocation coûte environ 350ms facturés (200ms pour démarrer l’instance et le runtime + 100ms d’invocation + 50ms post-response), contre seulement 150ms pour les invocations suivantes (warm start).
AWS a développé quatre mécanismes natifs pour atténuer le cold start :
Du côté développeur, trois leviers principaux : AWS Lambda SnapStart (snapshot de l’état initialisé pour éliminer le cold start à chaque invocation), Application size (réduire la taille du package de déploiement) et Provisioned Concurrency (maintenir des instances chaudes en permanence pour les chemins critiques).
La session a également exploré des cas d’usage avancés qui ouvrent de nouvelles perspectives : streaming de logs en temps réel, montage de S3 comme filesystem dans Lambda, développement live dans Lambda, et utilisation de Lambda comme sandbox isolée pour exécuter du code non fiable.
Des cas concrets directement applicables dans nos architectures serverless.
La session la plus marquante de la journée. Pour contextualiser, deux chiffres Gartner : 33% des applications incluront de l’agentique en 2028 contre moins de 1% en 2024, et 15% des décisions au travail seront prises de manière autonome par des agents d’ici 2028.
Le défi est réel : des applications de plus en plus complexes, une télémétrie fragmentée entre de multiples outils, et un mode pompier permanent qui empêche les améliorations systématiques.
L’AWS Security Agent (Preview) a été présenté avec une promesse claire : « Déployer en toute confiance des applications sécurisées. » Il offre une sécurité proactive tout au long du cycle de développement, des conseils d’experts adaptés au contexte de l’application, et surtout du pentesting à la demande.
La démonstration live a été le moment fort de la session : l’agent a effectué un pentest complet sur l’OWASP Juice Shop, application web volontairement vulnérable, référence standard de la communauté sécurité. Sans aucune intervention humaine, l’agent a parcouru l’application, identifié les vulnérabilités et généré les correctifs correspondants.
Voir ce niveau d’autonomie appliqué à la sécurité applicative illustre concrètement ce que « shift-left security » signifie à l’ère de l’IA agentique : les failles sont détectées et corrigées avant même que le code ne parte en production.
L’AWS DevOps Agent (Preview) a été présenté comme « l’agent de l’excellence opérationnelle : moins d’alertes pour de meilleures nuits. »
Il assure l’analyse permanente des incidents et aide à leur résolution, s’intègre nativement avec les outils d’observabilité existants (Dynatrace, New Relic, Datadog, Splunk, Amazon CloudWatch) et comprend l’environnement technique complet pour réduire le MTTR et passer d’un mode pompier à une proactivité opérationnelle réelle.
Benoit Tinseaux a partagé le POC conduit chez Accor Group sur le AWS DevOps Agent. Le périmètre était défini autour de trois critères de succès concrets : est-ce que ça réduit le MTTR ? Est-ce que l’agent trouve les bonnes choses ? Quel est l’effort de déploiement dans notre écosystème ?
L’expérimentation a démarré en environnement de développement avec des incidents simulés via AWS Fault Injection Service et Neoload, avant de valider les critères de passage en production.
Résultats chiffrés du POC Accor : AWS DevOps Agent
Ces résultats sont particulièrement significatifs pour les équipes opérant des infrastructures complexes : l’agent se montre d’autant plus performant que l’environnement est complexe, notamment pour la corrélation d’événements et l’identification de comportements récurrents entre services AWS.
Une session délibérément atypique pour clore la journée. Pascal Martin a invité l’audience à suivre le parcours d’une requête HTTP, de sa naissance dans un navigateur jusqu’à sa résolution dans un service backend, en traversant toutes les couches d’une architecture moderne : résolution DNS, CDN, load balancer, API Gateway, containers, bases de données, cache.
Au-delà de la technique, le propos était presque philosophique : notre métier est un assemblage de compétences et de choix technologiques. Chaque brique rencontrée sur le chemin représente une décision d’architecture, un compromis entre performance et simplicité, une opportunité d’optimisation, et une étape potentielle dans l’évolution de carrière d’un ingénieur.
Vingt ans après les débuts d’AWS, et malgré la sophistication croissante des outils disponibles, maîtriser les fondamentaux reste une compétence profondément différenciante.
L’AWS Summit Paris 2026 confirme et amplifie des tendances que nous observons dans nos missions au quotidien. Au-delà du volume des annonces, c’est la maturité opérationnelle de l’IA agentique qui ressort comme signal fort.
Les entreprises ne parlent plus de POC, elles partagent des résultats chiffrés, des architectures industrialisées, des leçons apprises en conditions de production.
Dans ce contexte, voici les 5 convictions clés de Synapsys après l’AWS Summit Paris 2026 :
Articles similaires
Amazon S3 Vectors, annoncé récemment en avant-première, représente la première solution de stockage cloud avec support natif pour les vecteurs,...
L'AWS Summit Paris 2025 était centré sur l'intelligence artificielle, avec presque chaque session et annonce abordant comment l'IA transforme les...
À mesure que les architectures IA natives du cloud évoluent, les équipes font face à des décisions d’infrastructure critiques qui...