Pour la direction, l’objectif ne saurait être plus clair : adopter l’IA, automatiser les opérations et gagner en efficacité. Mais le déploiement précipité de ces technologies fait émerger une douloureuse vérité. La technologie censée optimiser l’efficacité de l’entreprise augmente la complexité des opérations.C’est ce que nous appelons le paradoxe de la résilience, et c’est la raison pour laquelle la résilience numérique est aussi difficile à atteindre aujourd’hui.
L’IA est un animal vorace. Parce qu’elle consomme des quantités considérables de télémétrie d’infrastructure, sa mise en œuvre soulève un nouveau défi : elle impose de gérer l’explosion des volumes de données nécessaires pour auditer, tracer et gouverner les décisions de l’IA.
Si vous ajoutez de puissants agents IA à un environnement de données obsolète et fragmenté, le résultat n’est pas un gain de vitesse. Les frictions augmentent. L’IA produit des « hallucinations » à cause du manque de contexte. Et le risque est grand de voir des systèmes automatisés prendre de mauvaises décisions avant que des humains n’aient eu le temps de les arrêter.
Du fait de l’émergence de l’IA agentique, nous nous trouvons actuellement à un moment charnière. Ces systèmes peuvent trier les alertes, corréler les preuves, recommander des corrections et déclencher des workflows en temps réel.
Mais il y a une faille : l’intelligence d’un agent n’est que le reflet des données auxquelles il a accès. Lorsque le contexte est fragmenté entre différents clouds et outils, l’automatisation est fragilisée. Si vous automatisez les données sur la base de données de mauvaise qualité, vous ne renforcez pas la résilience, vous augmentez le risque, c’est tout.
Dans la plupart des cas, la télémétrie d’une entreprise est dispersée. Elle se trouve aussi bien chez des fournisseurs de cloud et des systèmes locaux, que dans des plateformes SaaS et des outils ponctuels spécialisés. Impossible de déplacer toutes ces données dans un même dépôt : le coût et la latence seraient bien trop élevés, et ce problème ne ferait que s’aggraver dans la mesure où l’IA génère une quantité exponentielle de données.
Prenons l’exemple d’un processeur de paiement international dont le paysage est actuellement composé d’« îlots de données ». Les logs de sécurité sont isolés de la télémétrie réseau, tandis que les données de performance sont impossibles à corréler avec les signaux d’infrastructure. Lorsqu’un incident se produit, les équipes perdent du temps à établir des corrélations à la main.
Le plus rageant dans tout cela ? Bien souvent, les organisations possèdent déjà les signaux dont elles ont besoin pour anticiper les problèmes. Mais ces signaux sont enfermés dans des silos.
Les entreprises confondent importation et information. L’augmentation des volumes donne une apparence de maturité, mais sans une corrélation des données de tous les domaines, elle n’améliore pas la visibilité des opérations :
Cette problématique est parfaitement résumée par l’exemple d’un fournisseur de soins de santé desservant des centres médicaux universitaires : les investigations étaient souvent ralenties parce qu’il était impossible de « combler les lacunes » entre les workflows des applications cliniques et les données d’infrastructure. Les défaillances étaient souvent signalées par le personnel infirmier en aval, au lieu d’être détectées par les outils en amont : un symptôme classique en cas d’absence de contexte commun.
Le modèle traditionnel « détection, investigation, réponse » n’est plus à la hauteur des systèmes modernes qui évoluent trop vite pour que les humains aient le temps de faire manuellement le lien entre les indices. Les équipes de direction demandent aujourd’hui de l’anticipation et de la résilience ; il faut détecter les signaux faibles en amont, réduire les risques de façon proactive et accélérer les cycles de décision.
L’IA agentique s’impose comme un véritable catalyseur en supprimant les doublons dans les alertes et en orchestrant les corrections à faible risque. Pour surmonter ce paradoxe, les décideurs revoient leurs stratégies :
Pour résoudre ce paradoxe, il faut une architecture de data fabric prête pour l’IA.
Les responsables n’ont pas besoin de choisir entre le coût d’une acquisition centralisée et les angles morts des données distribuées. Avec une architecture de data fabric, il devient possible de découvrir, de gouverner, de corréler et d’analyser les données de différentes sources sans les déplacer.
Une même interface unifiée permet d’interroger et de corréler les données des sources cloud et locales. On élimine ainsi les lourdeurs des pipelines de données redondants tout en bénéficiant d’un contexte riche et précis en cas de besoin.
Cette approche répond simultanément à deux contraintes :
Le responsable technologique d’une agence fédérale américaine résume très simplement cet impératif : « Il faut aller là où se trouvent les données. » Au lieu d’acheminer de force toutes les données de télémétrie dans un même dépôt, son équipe hiérarchise la corrélation des données de toute l’organisation de manière à optimiser les coûts. Elle parvient ainsi à exercer une supervision complète, sans les lourdeurs opérationnelles qu’impose le déplacement de datasets massifs.
La data fabric permet de faire converger le SecOps, le NetOps et les opérations IT. Les chaînes d’outils fragmentées introduisent des angles morts : les attaquants et les défaillances n’ont aucun respect pour les organigrammes.
Un fournisseur international de technologie a compris que la séparation traditionnelle entre NetOps et SecOps empêchait l’organisation de localiser la cause profonde des problèmes dans les environnements complexes. L’intégration étroite de ces deux fonctions ne permettait pas seulement de gagner en efficacité ; elle était indispensable pour améliorer la performance des opérations et la précision des règles.
La convergence permet aux équipes de travailler en partageant le contexte, les workflows et les responsabilités. Elle évite que les investigations ne dégénèrent en conjectures et en débats sur la répartition des tâches.
L’IA occupe désormais une place centrale dans les opérations, mais la confiance reste un facteur limitant. Malgré une adoption rapide, un fabricant de produits pharmaceutiques affichant 100 000 utilisateurs internes de ChatGPT affirme que l’IA doit soutenir les analystes, et non les remplacer.
La plupart des organisations misent sur des modèles intégrant l’intervention humaine. L’IA détecte les anomalies, résume les incidents et propose des mesures de correction, mais l’humain valide les décisions critiques qui concernent les systèmes réglementés, la disponibilité des produits et les données sensibles.
À l’ère de l’IA, la résilience numérique ne consiste pas à accumuler les outils ni la télémétrie, mais bien à orchestrer la collaboration entre l’expertise humaine et l’intelligence de la machine.
Les entreprises qui réussissent voient dans leur architecture de données un socle stratégique. Elles simplifient des chaînes d’outils fragmentées pour créer des environnements où l’IA peut corréler les signaux de façon fiable, afin de gagner la confiance des équipes. C’est précisément le rôle de la Cisco Data Fabric, qui repose sur la plateforme de données ouvertes de Splunk.
En tant que couche d’intelligence de l’entreprise agentique, la Cisco Data Fabric connecte les signaux de bout en bout, les enrichit en ajoutant du contexte et leur applique les règles de gouvernance. Elle remplace la pluralité d’interprétations des outils fragmentés par une vérité commune et actualisée en temps réel. Les agents sont ainsi en mesure de raisonner correctement, d’agir en toute sécurité et d’apprendre en continu des résultats. La plateforme ouverte, fiable et évolutive de Splunk forme la colonne vertébrale de l’architecture de la data fabric.
On ne résout pas le paradoxe de la résilience en collectant plus ou moins de données. On le résout en mettant des données connectées, gouvernables et utilisables au service de la prise de décision.
Les plus grandes organisations mondiales font confiance à Splunk, une filiale de Cisco, pour renforcer en permanence leur résilience numérique grâce à une plateforme unifiée de sécurité et d’observabilité, alimentée par une IA de pointe.
Nos clients se fient aux solutions de sécurité et d’observabilité primées de Splunk pour sécuriser leurs environnements numériques complexes et en renforcer la fiabilité, quelle que soit l’échelle.