PLATFORM

Data Stream Processor 1.1: Schwimmt mit dem Stream!

Die Menge an generierten Daten explodiert förmlich: Im Jahr 2020 werden schätzungsweise 1,7 MB Daten für jede Person auf der Erde erzeugt – pro Sekunde. Laut Forbes werden zusätzlich jeden Tag noch weitere 2.500 Petabyte an Daten generiert. Solch massive Datenmengen machen es schwierig, die richtigen Informationen zu sammeln, zu schützen und an die jeweils richtigen Benutzer und Systeme zu liefern. Eine Entscheidungsfindung auf Datenbasis wird gleichzeitig durch all die verschiedenen Orte erschwert, in denen wir unsere Daten speichern: in mehreren Instanzen, Standorten und in On-Prem-/Cloud-/Multi-Cloud-Umgebungen. Die Schnelligkeit, mit der Erkenntnisse gewonnen werden, ist in der heutigen Zeit, in der der E-Commerce immer mehr in den Mittelpunkt rückt, nach wie vor von größter Bedeutung. Kundenkäufe, das Kundenverhalten online und die Überprüfung von Lieferketten erfordern unmittelbare Aufmerksamkeit, da sie sich direkt auf Umsatz und Kosten auswirken. Stellt euch vor, wie groß der Nutzen für Unternehmen sein kann, die diese Informationen zur Hand zu haben – egal, ob es darum geht Probleme frühzeitig zu erkennen, oder Kundenergebnisse voranzutreiben.

Hierbei ist das Streaming von Daten als Teil des Informationslebenszyklus von entscheidender Bedeutung, da es mehr Kontrolle, Transparenz und Validierung bietet. Mit der Einführung von Splunks Data Stream Processor (DSP) 1.1 bieten wir unseren Kunden eine ganze Menge von Zusatznutzen, den wir euch hier gerne vorstellen.

Datenerfassung via Cloud- & On-Prem-Datenquellen

Für bessere Transparenz können Kunden mithilfe von zusätzlichen Quellen wie AWS S3, GCP Monitoring Metrics und Microsoft 365 ihre Daten ganz einfach an einem einzigen, vereinheitlichten Ort zusammenführen und dann bei Bedarf erweiterte Streaming-Funktionen wie Datenformatierung, Filterung oder Aggregationen nutzen. Wir erleichtern die Datenerfassung mit SPL2 und einem Visual Query Builder, wodurch ihr Einblick in eure Daten-Pipelines erhaltet.

Splunk DSP

Darüber hinaus nutzen viele on-prem Datenquellen (wie z. B. Netzwerkgeräte und Security-Produkte wie Firewalls, Intrusion Detection/Prevention, Web-Proxy und Anti-Virus) Syslog. Das Erfassen dieser Quellen war in der Vergangenheit immer eine Herausforderung – aber mit Splunk Connect für Syslog (SC4S) von unserer Splunk Enterprise-Plattform könnt ihr sie in DSP ganz einfach für weitere Streaming-Funktionen einbinden. 

Daten dort, wo sie benötigt werden – Unternehmensweit

Mit Verbindungen zu AWS S3, Azure Event Hubs sowie SignalFx und Splunk Enterprise können Kunden Daten mit Tags versehen und dann einfach an andere Teams und Systeme weiterleiten. So können zum Beispiel alle relevanten Sicherheitsdaten für das Cybersecurity-Team mit Tags versehen werden, sodass dieses nicht in mehreren Instanzen danach suchen muss. Anschließend können die Daten an verschiedene Ziele, wie beispielsweise Splunk Enterprise (um weitere Untersuchungen durchzuführen) oder einen Data Lake (als wirtschaftliche Speichermethode) gesendet werden. Die Mars Corporation setzt auf genau diese Weise DSP ein, um es letztlich als zentrale Drehscheibe für ihre Datenquellen zu nutzen. Sicherheitsdaten können mit Tags versehen werden und dann von DSP direkt an die IT-Sicherheitsorganisation weitergeleitet werden, was die Fehlerbehebung beschleunigen und die allgemeine Cybersicherheit verbessern kann.

Darüber gibt euch DSP die Gewissheit, dass eure Daten auch dort landen, wo sie landen sollen, indem erstklassige Messaging-Technologien eingesetzt werden, die sowohl Publish/Subscribe- als auch Queuing-Techniken unterstützen, um eure Daten zu schützen. In Kombination mit einer robusten und verteilten modernen Clustering-Technologie, die mehrere Master zur Datenduplizierung bietet, müsst ihr euch keine Sorgen mehr über einen Datenverlust machen.

Splunk DSP

Vertrauen in Daten – mit Machine Learning ohne Grenzen

Und während sich die Machine Learning-Funktionen noch in der Beta-Phase befinden, nutzt DSP 1.1 eine Reihe neuer prädiktiver Funktionen. Hierzu gehören insbesondere adaptive Schwellwertbildung (Adaptive Thresholding), Drift-Erkennung und sequentielle Anomalien-Erkennung. Traditionell erfordern Machine Learning Frameworks, dass ihr eure Daten bereinigt, ein Modell trainiert und dieses Modell dann erneut trainiert, wenn sich Datenmuster im Laufe der Zeit ändern. Mit den Streaming Machine Learning Funktionen von DSP könnt ihr diese "out of the box"-Algorithmen einmal bereitstellen und müsst sie dann nie wieder neu trainieren, da sie kontinuierlich dazulernen. Auf diese Weise können Unternehmen Dinge wie den internen Netzwerkverkehr, der während der Arbeitswoche schwankt, intelligent überwachen und False Positives während der Erkennung von Verhaltensänderungen oder tatsächlichen Anomalien bzw. Ausreißern reduzieren. 

Splunk DSP

Um mehr Informationen zu erhalten, schaut euch unsere DSP-Webseite an. Dort erfahrt ihr nicht nur, wie Kunden mit DSP erfolgreich sind, sondern findet auch ein kurzes Demo-Video!

--------------------------

Cody Bunce

*Dieser Artikel wurde aus dem Englischen übersetzt und editiert. Den Originalblogpost findet ihr hier: Data Stream Processor 1.1: Jump in the Stream!.

Splunk macht mit der Data-To-Everything Plattform Daten zu Taten, um diese ungeachtet ihres Umfangs zu untersuchen, zu überwachen und Handeln zu ermöglichen.

Tags

Data Stream Processor 1.1: Schwimmt mit dem Stream!

Alle Tags anzeigen
Show Less Tags

Join the Discussion