DevOps REX 2025 : IA dans le DevOps, souveraineté des données et Kubernetes
Retour sur le DevOps REX 2025 : migration depuis AWS vers un cloud souverain, IA réellement mise en production et...

Longtemps perçue comme une fonction purement technique, l’observabilité est en train de devenir un pilier stratégique de la gouvernance numérique. Ce changement de paradigme s’explique par la complexité croissante des systèmes distribués, l’exigence de performance en temps réel et la pression économique sur les budgets IT.
Aujourd’hui, la question n’est plus « faut-il être observable ? », mais « comment transformer l’observabilité en levier de gouvernance intelligente et durable ? »
Avec la généralisation des architectures microservices, des conteneurs et du cloud hybride, les volumes de métriques, logs et traces explosent. Chaque requête, chaque événement, chaque conteneur génère une masse de données souvent sous-exploitée.
Résultat : les coûts de stockage, d’indexation et de traitement augmentent de manière exponentielle.
L’écosystème d’observabilité est fragmenté : solutions APM, plateformes de logs , traceurs distribués, outils de visualisation, agents, etc.
Cette diversité, bien que riche, conduit à des redondances, des frais de licences cumulés et une complexité opérationnelle accrue.
Pour mieux comprendre, cette dérive s’explique par le besoin d’avoir de plus en plus d’informations et aussi le manquement des outils. Par exemple des outils d’observabilité comme ITRS Geneos ne permettent pas de concilier des logs. Les entreprises se sont tournaient vers des outils comme Splunk pour permettre de concilier des logs mais aussi sur des outils de visualisation comme PowerBI.
Un autre problème majeur est le manque de gouvernance sur les outils.
Certaines entreprises disposent même de produits en triple selon les différentes entités.
Conséquences :
Le turn-over des équipes ajoute également des coûts de formation supplémentaires.
Quid de l’automatisation ?
Avec la multiplication des outils, l’automatisation devient plus complexe.
Elle peut alors freiner l’évolution des systèmes et compliquer la maintenance.
Beaucoup d’entreprises ont accumulé une dette d’observabilité : des métriques collectées sans gouvernance, des tableaux de bord obsolètes, des alertes non pertinentes.
Cette dette rend l’analyse plus lente et augmente le risque d’incidents mal diagnostiqués.
Cela est dû à l’absence de définition claire et cohérente de l’observabilité et des éléments réels à superviser.
Aujourd’hui, beaucoup de sociétés se rendent compte que leur infrastructures sont sous consommées (surdimensionnement des machines, Vms non utilisées …).
Quelles en sont les raisons ?
Résultat : Les entreprises n’ont pas de vision sur les consommations réelles de leurs infrastructures et perdent inutilement du budget (coût d’infrastructures supplémentaires mais aussi des coûts de ressources pour superviser ces serveurs).
L’impact d’absence de normes entre les différents clouds ont un impact sur le stockage, les ressources pour concilier les données.
Pourquoi cela impacte ?
Résultat : Les entreprise investissent doublement dans le stockage pour ces données non structurées et aussi dans les ressources pour adapter les données pour les rendre cohérentes.

La première étape consiste à prioriser les données à collecter.
Tout n’a pas besoin d’être mesuré : seules les données qui contribuent à la fiabilité, à la performance ou à la sécurité métier doivent être conservées.
L’approche “observability by design” permet d’intégrer cette rationalisation dès la conception des systèmes.
Certaines entreprises bancaires ont adopté cette approche en s’appuyant sur des outils comme Dynatrace ou Datadog.
Ces plateformes offrent une vision end-to-end des environnements IT et permettent une gestion proactive des données grâce à l’IA.
Elles facilitent également la gestion des métriques selon les besoins métiers et la création de tableaux de bord unifiés, intégrant à la fois une vue business, une vue infrastructure et une vue applicative.
Une gouvernance efficace repose sur la normalisation des métriques et des logs.
L’adoption de standards comme OpenTelemetry, Promotheus facilite la collecte unifiée et la réduction de la dépendance à un fournisseur unique.
Une plateforme centralisée de données observables devient alors un socle de pilotage transverse (technique, sécurité, business).
Les entreprises doivent créer un glossaire de référence pour les multi-providers pour permettre de rationaliser les données.
Quand il y a une cohérence de normalisation , cela permet d’etre plus efficient et aussi de reduire les couts d’infrastructure.
Pour exemple , il faut une normalisation de metriques pour permettre d’avoir une certaine cohérence :
Grâce à une normalisation, les providers multi-cloud peuvent être intégrés de manière intégrale et aussi de pouvoir les traiter de manière uniforme. D’un point de vue opérationnel, cela permet d’avoir une réactivité accrue et aussi une meilleure proactivité.
Comme pour tout projet, il est essentiel d’anticiper l’automatisation avant l’activation du service.
Souvent, cette étape est oubliée ou mise de côté, ce qui peut entraîner une augmentation de 50 % de la charge de support.
En revanche, si elle est prise en compte en amont, elle permet de réduire significativement le besoin en support.
L’IA et le machine learning transforment la posture de l’observabilité.
Là où hier on réagissait à des incidents, aujourd’hui on prévoit, corrige et optimise automatiquement grâce à des corrélations entre signaux et comportements.
Cette observabilité augmentée est au cœur de la gouvernance intelligente.
Aujourd’hui, l’IA permet d’automatiser et aussi d’être plus proactif.
Par exemple, certaines banques ont choisi Dynatrace ou Datadog pour répondre à ces besoins.
Grâce à l’IA intégrée à ces outils, elles bénéficient de moins de fausses alertes et d’une vision centralisée de toutes les données.
Que peut apporter l’IA en plus ?
Elle peut également résoudre certains incidents de manière autonome, comme la relance de processus ou la suppression de fichiers.
Ces automatisations sont conçues de manière industrielle, grâce au machine learning.
La rationalisation des infrastructures (FinOps) est un des leviers pour l’optimisation des coûts.
Comment peut-on faire ? Très simplement, il faut commencer par réduire le volume des machines inutilisées, les mutualiser.
L’étape d’après, est l’étude des configurations machines pour éviter le surdimensionnement.
Le plus important est de partir sur de la virtualisation car cela permet de réduire drastiquement les coûts du court/moyen terme. De nos jours, les VMs sont aussi performantes que des machines physiques (sauf dans certains cas comme les machines de calculs).
Une fois les données consolidées et qualifiées, elles deviennent un outil de pilotage global :
L’enjeu final est de mesurer la valeur générée par l’observabilité : réduction du MTTR, amélioration de la satisfaction client, stabilité accrue des déploiements, ou encore baisse du coût opérationnel global.
La gouvernance intelligente repose sur des KPI orientés impact et non sur la quantité de logs collectés.
Passer du coût à la gouvernance intelligente nécessite de changer de posture :
L’observabilité n’est plus un centre de dépenses : c’est un instrument de confiance, de performance et de durabilité pour les organisations numériques modernes.
Articles similaires
Retour sur le DevOps REX 2025 : migration depuis AWS vers un cloud souverain, IA réellement mise en production et...
Introduction : vers la redéfinition du DevOps ? Une édition marquée par l’IA, la gouvernance et un métier du DevOps...
Depuis plusieurs années, le DevOps s’impose comme le moteur de la transformation numérique. On parle d’automatisation, de pipelines, de livraison continue,...