In der aktuellen digitalen Landschaft zählen Betriebsdaten zu den wichtigsten Assets – allerdings nur dann, wenn sie zugänglich, verständlich und effektiv nutzbar sind. Cisco Data Fabric, das auf der Splunk-Plattform der nächsten Generation basiert, bricht Datensilos auf und verknüpft Erkenntnisse domänenübergreifend, damit ihr den Wert eurer Daten voll ausschöpfen könnt – von Netzwerk-Telemetriedaten und Sicherheits-Events bis hin zu Anwendungs-Performance und Benutzererlebnis.
Die Leistungsstärke einer Datenstruktur hängt jedoch von der darauf aufsitzenden Intelligenzschicht ab. An dieser Stelle kommen gehostete KI-Modelle von Splunk ins Spiel. Die eigens entwickelten generativen KI-Modelle wandeln vernetzte Datenquellen in ein intelligentes System um, das euch auf den Weg von Transparenz zu Erkenntnissen und von Erkenntnissen zu vertrauenswürdigen, automatisierten Maßnahmen bringt.
Generative KI kann die Wertschöpfung aus Daten tiefgreifend verändern, doch die Akzeptanz bei Unternehmen wird durch einige große Herausforderungen ausgebremst, z. B. die Verwaltung der Infrastruktur, den Aufwand mit API-Anmeldeinformationen, die Verfolgung von Modellversionen sowie Befürchtungen hinsichtlich Datenlecks bei Drittanbietern.
Die gehosteten KI-Modelle von Splunk sind jetzt für Splunk Cloud Platform-Kunden allgemein verfügbar. Das ist ein echter Wendepunkt, denn damit steht generative KI zur Verfügung, die direkt mit euren Maschinendaten arbeitet, in die alltäglichen Workflows eurer Teams integriert ist und die Verwaltung einer Infrastruktur überflüssig macht. Außerdem verlassen eure Daten zu keinem Zeitpunkt eure sichere Umgebung.
Universelle LLMs überzeugen bei der Zusammenfassung von Text und beim Beantworten von Fragen zu Dokumenten. Mit Maschinendaten – diesen in großen Mengen anfallenden zeitbasierten Signalen mit hoher Kardinalität, die durch eure Umgebung fließen und durch speziellen Kontext, Schemata und rasch wechselnde Muster gekennzeichnet sind – tun sie sich jedoch schwer.
Unternehmen stehen vor schwierigen Abwägungen:
Mit den gehosteten Modellen von Splunk ist dieses Dilemma Geschichte. Wir bringen generative KI-Modelle auf Unternehmensniveau direkt in eure Splunk Cloud-Umgebung – damit entfällt sowohl die Verwaltung der Infrastruktur als auch die Konfiguration von API-Schlüsseln, und die Daten bleiben alle innerhalb eures sicheren Perimeters.
Sicherheitsteams sehen sich mit einer überwältigenden Anzahl von Warnmeldungen und einem immer größeren Mangel an qualifizierten Analysten konfrontiert. Foundation-sec-1.1-8b-instruct wurde eigens für dieses Problem entwickelt.
Dieses Modell mit 8 Milliarden Parametern, das kontinuierlich mit 5 Milliarden sicherheitsbezogenen Token vortrainiert und dann gezielt für Use Cases von Splunk nachtrainiert wurde, versteht Sicherheitsterminologie, Frameworks und Workflows. Use Cases sind unter anderem die Priorisierung von Warnmeldungen, die Zusammenfassung von Incidents und die Rekonstruktion des zeitlichen Ablaufs von Angriffen.
Auswirkungen in der Praxis: Analysten sind bei jeder verdächtigen Dateierkennung in der Regel 15 bis 30 Minuten mit der manuellen Untersuchung beschäftigt. Das „Foundation AI Security Model“ automatisiert den gesamten Triage-Workflow, bewertet jede Warnmeldung in weniger als fünf Sekunden und bietet eine klare Argumentation. Dadurch wird der Arbeitsaufwand der Analysten um 70 bis 80 % reduziert, Warnmeldungen werden rund um die Uhr konsistent verarbeitet und euer Team wird von monotonen Aufgaben befreit und kann sich auf die strategische Bedrohungssuche konzentrieren.
Durch das Cisco Deep Time Series Model wird Splunk mit der Zero-Shot-Zeitreihenprognose ausgestattet. Damit lassen sich künftige operative Metriken prognostizieren, ohne ein Modell zu trainieren, eine Data-Science-Pipeline zu erstellen oder ausgebildete Data Scientists einzustellen. So wird jeder Engineer in die Lage versetzt, Probleme nicht nur zu erkennen, sondern zu verhindern.
Dieses generative KI-Modell, das für die besonderen Anforderungen von Maschinendaten entwickelt und vortrainiert wurde, identifiziert Anomalien und prognostiziert, ob diese Veränderungen Auswirkungen auf die Benutzer haben könnten. Das Potenzial der Prognose kann für alle Zeitreihendaten genutzt werden, die bereits durch Splunk fließen, d. h. Infrastrukturmetriken, Anwendungs-Performance, Netzwerk-Traffic und Ressourcenauslastung.
Auswirkungen in der Praxis: Bei einer saisonalen Sonderaktion nutzt ein E-Commerce-Unternehmen das „Cisco Deep Time Series Model“ um Prognosen darüber zu erstellen, wie Traffic-Spitzen sich auf die Kapazität der Infrastruktur auswirken. So kann das Unternehmen bereits im Vorfeld skalieren und kritische Geschäftsmetriken mit der Anomalieerkennung überwachen, um Änderungen auszumachen, die sich auf das Benutzererlebnis auswirken könnten. Wenn ein Fehler im Zahlungsportal einen Rückgang um 30 Prozent bei den erfolgreichen Bestellungen verursacht – eine Abweichung, die bei statischen Schwellenwerten unerkannt bleibt – kennzeichnet das System die Diskrepanz sofort. So können SREs das Problem unverzüglich lösen und die Geschäftseinnahmen sichern.
Manchmal müsst ihr Daten domänenübergreifend analysieren, Code generieren oder komplexe hypothetische Fragen zu eurer Umgebung stellen.
Auswirkungen in der Praxis: Ein IT-Operations-Manager gibt folgenden Auftrag: „Analysiere die Metriken der Anwendungs-Performance, Server-Logs und Netzwerkdaten von Dienstag, 14:00 bis 16:00 Uhr, und erkläre, wodurch die Leistungseinbuße verursacht wurde. Das Modell korreliert Signale aus unterschiedlichen Quellen, erkennt eine Ausschöpfung des Datenbank-Verbindungspools, die mit einer unerwarteten Traffic-Spitze zusammenfällt, und schlägt Konfigurationsänderungen vor, um ein erneutes Auftreten des Problems zu vermeiden.

Keine GPU-Bereitstellung. Keine Verfolgung von Modellversionen. Keine Skalierungsprobleme. Volle Konzentration auf Ergebnisse statt auf die Infrastruktur.
Eure Daten verlassen zu keinem Zeitpunkt eure Splunk Cloud-Umgebung. Keine externen API-Schlüssel. Keine Drittanbieter von KI-Lösungen. Integrierte Compliance und Governance innerhalb eures bestehenden Sicherheitsperimeters.
Im Gegensatz zu angedockten Chatbots, die von den eigentlichen Arbeitsabläufen abgekoppelt zu sein scheinen, werden die gehosteten Modelle von Splunk in eure bestehenden Workflows integriert. Mit dem nativen Befehl „| ai“ könnt ihr direkt Daten in diese Modelle einspeisen – die KI ist kein bloßes Add-On, sondern wird zu einem Bestandteil eurer Suchsprache.
Die Modelle werden automatisch aktualisiert und verbessert, ohne eure Workflows zu unterbrechen. Ihr profitiert von kontinuierlicher Optimierung ohne Migrationsprojekte oder Mehraufwand für die Versionsverwaltung.
Wenn ihr Splunk Cloud Platform bereits nutzt, könnt ihr die gehosteten Modelle von Splunk (Splunk Hosted Models) direkt über das AI Toolkit und Suche und Reporting nutzen – ohne zusätzliche Infrastruktur, ohne komplexe Einrichtung, ohne langwierige Beschaffung.
Die gehosteten Modelle von Splunk bringen spezifische KI-Funktionen direkt zu euren Daten und unterstützen euch beim Untersuchen von Sicherheits-Incidents, beim Optimieren des IT-Betriebs oder beim Vorhersagen betrieblicher Anforderungen. So werden Erkenntnisse zu konkreten Handlungen und mehr Resilienz.
Die Komplexitätsbarriere ist überwunden. Datenschutzbedenken werden ausgeräumt. Die Infrastrukturbelastung entfällt. Was bleibt, ist Potenzial in Reinform – und es ist sofort verfügbar.
Die gehosteten Modelle von Splunk sind jetzt für Splunk Cloud Platform-Kunden über die App „AI Toolkit“ allgemein verfügbar.
Die führenden Unternehmen der Welt vertrauen auf Splunk, einem Unternehmen von Cisco, um ihre digitale Resilienz mit der einheitlichen Sicherheits- und Observability-Plattform, unterstützt durch branchenführende KI, kontinuierlich zu stärken.
Unsere Kunden setzen auf die preisgekrönten Sicherheits- und Observability-Lösungen von Splunk, um die Zuverlässigkeit ihrer komplexen digitalen Umgebungen zu sichern und zu optimieren – in jeder Größenordnung.