À retenir
À l’heure de l’IA agentique, les données machine constituent votre actif le plus stratégique. Mais encore faut-il pouvoir les exploiter. Les entreprises sont trop souvent submergées par le « chaos des données » : les outils sont fragmentés et les informations sont enfermées dans des silos dispersés dans de vastes environnements hybrides et multicloud.
Splunk Data Management est spécialement conçu pour relever ce défi. Notre vision : offrir une expérience fluide, homogène et extensible pour unifier, optimiser et gouverner vos données machine à grande échelle. En mettant sur pied un pipeline de données intelligent, Splunk Data Management transforme la télémétrie brute en informations en temps réel pour alimenter des applications stratégiques dans des domaines clés : SecOps, ITOps, assurance réseau et observabilité.
Selon les estimations, nous produirons 394 zettaoctets de données par an en 2028. Pour information, un zettaoctet représente 1 000 milliards de gigaoctets. Face à une telle explosion des volumes de données, la difficulté n’est plus d’importer les données dans une plateforme, mais de le faire avec un maximum d’efficacité. Les administrateurs Splunk et les architectes de données rencontrent sans cesse de nouveaux obstacles : manque de visibilité sur le flux des données, difficultés d’optimisation de l’importation et transformations complexes. Tout cela sous la pression sans cesse accrue des volumes de données.
Notre suite de fonctions de gestion des données est spécialement conçue pour lever ces obstacles. Grâce aux puissants outils Edge et Ingest Processor, votre équipe pourra compter sur plusieurs atouts stratégiques :
Optimisation de la valeur des données et de la rentabilité : simplifiez les pipelines grâce aux fonctions intelligentes de filtrage et de masquage. En convertissant des logs verbeux en métriques ciblées et en sélectionnant uniquement les données de grande valeur qui se prêtent le mieux à l’analyse, vous réduisez considérablement la charge sur le stockage et la consommation de Splunk Virtual Compute (SVC).
La mise en œuvre d’un traitement avancé à la source assure un point de départ solide et nous savons quels efforts réclame la gestion des pipelines de données complexes. Pour vous aider à avancer plus vite, nous ajoutons une automatisation optimisée par IA qui va prendre en charge l’essentiel de ces tâches pour vous faire gagner un temps précieux.

Forte de son héritage de plateforme de données leader du marché, Splunk a évolué pour alimenter l’architecture Cisco Data Fabric, un framework novateur conçu pour transformer les données machine en informations en temps réel pour l’ère de l’IA agentique.
Dans le cadre de la Cisco Data Fabric, nous avons le plaisir d’annoncer trois nouvelles fonctions de gestion des données optimisées par IA. Lancées en version alpha et en disponibilité limitée pour le moment, elles allègent la part d’effort manuel et réduisent le délai de rentabilité.
Il faut beaucoup de temps pour créer à la main les expressions rationnelles (regex) nécessaires à l’extraction des logs. Automated Field Extraction (AFE) s’appuie sur l’IA pour identifier instantanément les modèles et sélectionner les champs utiles dans les données importées. Vous n’avez plus qu’à choisir quelles données vous voulez, l’IA se charge de déterminer comment les extraire. Une fois ce frein levé, vos données sont structurées et prêtes à analyser bien plus rapidement, ce qui permet d’atteindre bien plus rapidement l’excellence opérationnelle.
La solution : au sein de l’interface de gestion des données, AFE analyse vos données sources et suggère des champs à extraire au cours du processus d’acquisition et de traitement des données. Il vous suffit de sélectionner les champs qui vous intéressent : l’IA se charge d’élaborer la logique regex en coulisses, aussi complexe soit-elle.
Renforcement des compétences : avec AFE, tout type d’utilisateur peut devenir instantanément un spécialiste de la gestion des données, même sans expertise en création d’expressions rationnelles. La courbe d’apprentissage nécessaire aux traitements complexes s’aplanit. La productivité des membres de votre équipe augmente et leur champ de compétences s’élargit : ils peuvent désormais implémenter rapidement des logiques métiers, du filtrage et des masques personnalisés.
Sécurité et confidentialité : pour garantir la sécurité des données, nous hébergeons en interne le LLM utilisé pour l’extraction de champs. Vos données machine sensibles ne quittent pas la protection de l’environnement Splunk.
La normalisation des données, étape particulièrement complexe, est souvent un frein sur le parcours qui mène de l’importation des données brutes aux informations exploitables. Le développement d’extensions technologiques (TA) et la création d’expressions rationnelles complexes, de même que la mise en conformité avec le Common Information Model (CIM), sont indispensables pour détecter efficacement les menaces, mais elles demandent souvent des jours, voire des semaines, de mappage manuel. Le workflow assisté par IA transforme le processus manuel d’intégration en une expérience fluide et automatisée qui vous guide des données brutes à une structure exploitable. En automatisant la structuration des données, vous identifiez plus rapidement les menaces et quelques minutes suffisent à déployer des réponses de sécurité.
La solution : Guided Onboarding with Auto-Schematization (intégration guidée avec schématisation automatique) utilise l’IA pour analyser un échantillon de données et recommander automatiquement les modèles CIM les plus adaptés. De cette manière, vos données sont instantanément compatibles avec les détections et les analyses haute performance basées sur CIM, sans les affres du rapprochement manuel.
Analyse intelligente : le système regroupe des événements similaires et recommande des rapprochements en générant automatiquement les règles nécessaires à l’extraction.
Déploiement flexible : vous gardez un contrôle total. L’outil génère des paquets d’extensions technologiques (TA) pour effectuer des rapprochements au moment de la recherche ou bien des pipelines SPL2 pour appliquer un traitement au moment de l’acquisition : à vous de choisir la meilleure stratégie pour votre environnement.
À l’ère de l’IA agentique, un socle de données gouverné et compatible avec l’IA est un impératif. Ces outils enrichissent vos données machine du contexte indispensable pour alimenter vos agents autonomes et prendre des décisions en temps réel à grande échelle.
La gestion des données alimentées par IA est un composant clé de l’architecture Cisco Data Fabric ; elle appuie les initiatives agentiques en simplifiant le passage des données brutes aux informations stratégiques. N’attendez pas pour commencer à bâtir ces fondations :
Vous voulez accélérer l’intégration ? Découvrez l’expérience Guided Onboarding et contactez directement nos experts Splunk.
Votre avis nous intéresse. Rendez-vous sur #dm-pipeline-builders, le canal Slack de la communauté, pour soumettre vos questions à nos experts. Ne manquez aucune actualité de la gestion des données en vous abonnant aux blogs et aux annonces de la communauté Splunk dédiés au thème de la gestion des données.
Les plus grandes organisations mondiales font confiance à Splunk, une filiale de Cisco, pour renforcer en permanence leur résilience numérique grâce à une plateforme unifiée de sécurité et d’observabilité, alimentée par une IA de pointe.
Nos clients se fient aux solutions de sécurité et d’observabilité primées de Splunk pour sécuriser leurs environnements numériques complexes et en renforcer la fiabilité, quelle que soit l’échelle.