„Oh, das ist eine grandiose Aussicht.“
Als John Glenn das sagte, war er gerade erst der zweite Mensch, der die Erde aus der Distanz eines Orbitalflugs sah. Seitdem sind Jahrzehnte vergangen, und wir haben miterlebt, wie die Raumfahrt, die anfangs wie ein Wunder schien, von Meilenstein zu Meilenstein flog und endlich Routine wurde. Heute kennen Millionen die Perspektive, die einst nur zwei Menschen hatten. Eine Unmenge von Dokumentarfilmen, Social-Media-Beiträgen und Astronauten-Livestreams beweist, wie radikal ein einziger Durchbruch unser Verständnis davon, was möglich ist, verändern kann.
Die SOCs von heute beginnen gerade, die Security Operations aus einem ganz neuen Blickwinkel zu sehen und zu organisieren. Die Analysten widmen sich beharrlich jedem Incident mit ihrer ganzen Intuition und Erfahrung in der Mustererkennung. Doch selbst Weltklasse-Fachleute können im Rahmen eines Betriebsmodells, dessen Prozesse auf fragmentierten Tools und manueller Priorisierung basieren, nur begrenzt etwas ausrichten. Der nächste Sprung nach vorne erfordert etwas anderes – eine neue Art und Weise, wie die Arbeit gemacht wird, wie Entscheidungen getroffen werden und wie Mensch und Maschine unter Hochdruck zusammenarbeiten.
Und dieser Druck nimmt weiter zu. Die Datenmengen wachsen explosionsartig, die Workflows werden immer komplexer, und KI-gestützte Angriffe nehmen schneller Fahrt auf, als die Analysten reagieren können. Immer mehr Tools, mehr Dashboards und mehr Warnmeldungen reichen nicht aus – im Gegenteil, der Druck wird dadurch nur noch stärker. So sehr, dass über 50 % der Sicherheitsverantwortlichen und -fachleute sagen, dass sie ihre Position in den nächsten zwölf Monaten wahrscheinlich aufgeben werden.¹
Agentische KI ermöglicht ein neues Betriebsmodell: eines, bei dem autonome KI-Agenten das Problem der Skalierung angehen, unstrukturierte Telemetriedaten durchkämmen und Untersuchungen schnell und präzise durchführen, während Menschen die Lenkungsaufgaben besorgen: Ausrichtung, Kontrolle und Richtlinien.
Ein Durchbruch verändert die Welt niemals nur durch Technologie – es kommt immer auf die Menschen an, die diese Technologie einsetzen. So wird das hybride SOC aus Menschen und KI-Agenten die Grundlage für das Jahr 2026. Im hybriden SOC können sich die Analysten ganz auf ihre Strategie, ihre Kreativität und auf die wichtigsten Entscheidungen konzentrieren – das bedeutet eine Veränderung, die in ihrer Art ebenso transformativ sein dürfte wie der Blick der ersten Astronauten zurück auf die Erde.
Und an diesem Punkt beginnen unsere Prognosen.
Der nächste SOC-Reifegrad wird nicht davon definiert sein, wer KI hat, sondern davon, wer weiß, wie man KI von der Leine lässt. Viele Teams werden weiterhin „KI einsetzen“ und damit Warnmeldungen zusammenfassen, Kontext abrufen oder auf Kommando Reports erstellen. Das ist zwar alles hilfreich, aber es sind am Ende nur angeflanschte Funktionen. Die wirklich bahnbrechenden SOCs werden anders arbeiten – sie werden um Agenten herum organisiert sein, die nicht als Tools, sondern mehr wie Teammitglieder gesehen werden. Und sie werden Prozesse, Kontrollen und Workflows entwickeln, sodass künstliche Intelligenz tatsächlich operative Aufgaben übernehmen kann.
Diese Verlagerung schmälert die Bedeutung der Analysten keineswegs, sondern wertet sie vielmehr auf. Wenn die SOCs aus menschlich-agentischen Teams bestehen, dann fällt den Analysten die Kontrolle der autonomen Workflows zu – statt dass sie jeden Einzelschritt einer Untersuchung selbst von Hand ausführen müssen. Menschen dirigieren das Zusammenspiel der Agenten. Analysten ziehen die Grenzen des Erlaubten, in denen sich die KI bewegt, Analysten sorgen dafür, dass sich das System der SOC-Mission gemäß verhält. Und wenn die KI-Systeme immer stärker vernetzt arbeiten, bekommen Analysten eher Aufgaben der Architektur, sie entwerfen Workflows, setzen Richtlinien auf und gestalten die gesamte Arbeitsweise der KI-Agenten.
Vertrauen wird zur Grundlage dieses neuen Betriebsmodells. KI-Agenten können die wiederkehrenden Aufgaben mit geringem Risiko übernehmen, die für die Teams nur eine Last sind, sodass die Analysten sich auf Aufgaben konzentrieren können, die ein hohes Maß an Urteilsvermögen erfordern, wie das Aufdecken von Täuschungsversuchen, die Risikoabwägung und die strategische Steuerung. Aber Analysten entscheiden weiterhin, welche Dinge sie KI-Agenten anvertrauen, wann sie selbst eingreifen und wie bei zunehmender Autonomie die Ausrichtung aufrechterhalten bleibt. Die menschliche Aufsicht macht Analysten zu hoheitlichen Verwaltern der autonomen Entscheidungsfindung.
Dieser Wandel wird auch die Arbeit im SOC verändern. Mit der Automatisierung auf Ebene der Ausführung wird die traditionelle Junior-Senior-Logik zunehmend unscharf. Splunk Field CTO Kirsty Paine erklärt das so: „Wenn Tier 1 sowieso automatisiert ist, schlage ich vor, ein neues Set von Verantwortlichkeiten im SOC zu schaffen, das wir Tier 4 nennen. Wir können Agenten und KI dann mehr Aufgaben zuweisen, und die Menschen müssen die Arbeit nicht mehr selbst erledigen, sondern können aufsteigen in die strategischen Programme zum Management der KI-Agenten.“ Wenn junge Analysten direkt Tier-2-Workflows einsteigen, dann fallen die Kompetenzunterschiede zwischen Junioranalysten und erfahrenen Fachkräften weniger ins Gewicht – denn KI beschleunigt die Ausführung für alle gleichermaßen. „Dann stellt sich die Frage, wie wir weiterhin den beruflichen Aufstieg unterstützen und diese neuen Aufgaben berücksichtigen, für die Menschen dank KI dann Zeit finden“, fährt Paine fort. „Werden wir AI Engineers für KI-Agenten brauchen, so wie wir heute Detection Engineers haben, die Erkennungsregeln schreiben?“
Für SOC-Führungskräfte bietet sich die Möglichkeit der Neudefinition von Exzellenz. Erfolg hängt dann weniger von Volumen und Geschwindigkeit ab, sondern davon, wie gut Analysten ihre Agenten im Griff haben, wie effektiv sie ihre Automatisierungen optimieren und was sie weitreichenden Entscheidung beitragen. Erfahrung wird nicht in Tastenanschlägen gemessen, sondern im Maß der Übersicht – in der Fähigkeit, ein System zu steuern, das gemeinsam mit seinen menschlichen Kollegen lernt.
Und wenn wir neu denken, wie Menschen arbeiten, wird auch der nächste Schritt klar: Wir müssen neue Wege finden, die SOC-Performance zu messen.
Jahrelang fungierte die MTTR als Leitstern des SOC – die Kennzahl stand für Klarheit, Verantwortlichkeit und war Gradmesser des Fortschritts. Wenn autonome Agenten aber einen immer größeren Teil des Zyklus von Erkennung, Untersuchung und Reaktion übernehmen, verlieren zeitbezogene Metriken an Relevanz. Geschwindigkeit ist nur ein Teil des Gesamtbildes. Eine Zukunft, die von agentischen Systemen geprägt ist, erfordert neue Messgrößen – solche, die Qualität, Kontext, Prävention und die Business-Auswirkungen von Entscheidungen in Maschinendimensionen erfassen.
Wenn KI-Agenten unstrukturierte Telemetriedaten analysieren, belastbare Erkenntnisse zutage fördern und den größten Teil der Tier-1-Arbeit automatisieren, dann ist die MTTR weniger ein Maßstab der Leistung als eine Momentaufnahme, die zeigt, wie spät wir bisher reagiert haben. Wenn KI-Agenten ein Problem sofort aus dem Weg räumen, bevor es überhaupt zum Incident wird, wie aussagekräftig ist dann noch die durchschnittliche Reaktionszeit?Das ist wie bei der Automatisierung. Auch da gehen die gemessenen Zeiten zuerst heftig zurück, was aber daran liegt, dass die Automatisierung die einfachen Tickets flott abarbeitet und so die alten Metriken schlagartig verbessert. Wenn die Teams dann aber zunehmend KI nutzen, kann es sein, dass die Kennzahlen wieder steigen – einfach deshalb, weil die verbleibenden Aufgaben manuell gelöst werden müssen oder einfach schwieriger sind. Die SOC-Leitungen werden daher absehbar auf ergebnisbezogene Messwerte achten – Reduzierung der falsch positiven Warnmeldungen, Genauigkeit der autonomen Triage, vermiedene Risiken (statt Risiken, auf die reagiert wurde) – sowie auf geschäftsrelevante KPIs wie vermiedene Ausfallzeiten oder die Kosten pro verhinderter Sicherheitsverletzung. Dies sind Metriken, die abbilden, was agentische Systeme tatsächlich leisten: nicht nur schnelle Bereinigung, sondern kontinuierlichen Einblick.
Mit den Signalen wird sich auch die Rolle der Analysten ändern. Der Wettlauf gegen die Zeit hat ein Ende, stattdessen steuern sie das Systemverhalten. Sie optimieren Agenten, validieren Schlussfolgerungen und stellen sicher, dass alle autonomen Aktionen der Risikobereitschaft des Unternehmens entsprechen. Wichtig sind Analysten dann nicht mehr, weil sie Aufgaben schnell erfüllen, sondern weil sie durch die Qualität ihres Urteilsvermögens das System selbst mitgestalten. Dieser Wandel wird alles infrage stellen, was bis dahin als „gut“ galt. Teams, die bisher jede Reduzierung der MTTR gefeiert haben, werden neue Begriffe brauchen, um Exzellenz in Worte zu fassen – ein Vokabular, das reine Reaktionszeiten hinter sich lässt und stattdessen Effektivität, Resilienz und Weitblick ausdrücken kann.
Diese Entwicklung wird auch eine engere Abstimmung mit den Führungskräften der Business-Seite anbahnen. Wenn die KPIs vermiedene Verluste, reduzierte Betriebsrisiken und messbare Verbesserungen der Resilienz widerspiegeln, lässt sich Security viel leichter erklären – und rechtfertigen.
Und wenn die SOCs sich an diesen neuen Messgrößen orientieren, dann hat das einen noch tiefer greifenden Wandel der Operations zur Folge: Nun werden KI-Systeme gebraucht, die Erkenntnisse über Tools, Plattformen und Umgebungen hinweg verknüpfen können. Dies führt uns direkt zur nächsten Prognose: der Entstehung vernetzter Multi-Agent-Ökosysteme.
Die erste KI-Welle in der Security bestand aus einzelnen Assistenten, die in bestimmte Tools integriert waren – hilfreich, aber eben an die jeweiligen Tools gebunden. 2026 wird sich der Einsatzschwerpunkt von diesen Assistenten hin zu koordinierten Ökosystemen aus Agenten verlagern, die gemeinsam denken, Kontext austauschen und im gesamten Stack Maßnahmen ergreifen können. Security war schon immer ein Teamsport, und jetzt beginnt auch die KI-Seite des Teams, auf diese Weise zu arbeiten: verteilt, kollaborativ und eng verzahnt.
Die SOCs werden dann nicht mehr vom eingebetteten Assistenten im SIEM zum EDR-Assistenten und von dort zum Assistenten der Cloud-Konsole wechseln, sondern mit Netzwerken aus KI-Agenten arbeiten, die sich fließend über Plattformen und Workflows hinweg bewegen. Die gemeinsame Sprache dieser Agenten werden offene Standards sein. Mit Protokollen wie MCP (Model Context Protocol) können sie Kontext umgebungsübergreifend und einheitlich erfassen. Neue Frameworks für die agentische Zusammenarbeit – eben im Rahmen eines Multi-Agent-Systems – machen es möglich, dass die KI-Agenten einzelne Aufgaben sequenzieren, Erkenntnisse weitergeben und eine Art gemeinsames Risikobewusstsein entwickeln. Das Resultat ist nicht nur Tempo, sondern Kohärenz: ein System, das nicht nur Ausschnitte auf Dashboards zeigt, sondern das Gesamtbild sieht.
Mit dieser Entwicklung wird sich die gesamte Landschaft verändern. Die älteren Systeme beherrschen vielleicht die Sprache des Austauschs nicht, ältere Tools haben vielleicht nicht die nötigen Schnittstellen für den Austausch von Erkenntnissen. Und in der Übergangszeit müssen die Teams sich vermutlich in Umgebungen zurechtfinden, in der nicht alle Teile zusammenpassen.
In diesem Punkt wird es auf Leadership ankommen. SOC-Verantwortliche, die beizeiten auf Interoperabilität setzen – durch die Einführung von Standards, durch schrittweise Modernisierung oder durchdachte Integrationspläne –, werden die schnellsten Fortschritte erzielen. Sie schaffen Umgebungen, in denen KI-Agenten abgesichert, vorhersehbar und mit voller Berücksichtigung der Risiken unterwegs sind, statt nur hinter den Trennwänden einzelner Silos.
Wenn solche vernetzten Systeme erst einmal etabliert sind, eröffnen sie noch stärkere Möglichkeiten, nämlich die Fähigkeit, Angriffe zu simulieren, die Abwehr zu testen und sowohl Menschen als auch Agenten mit derselben Struktur der Zusammenarbeit zu schulen. Und dies bringt uns direkt zur nächsten Entwicklung: kontinuierlichen Feindsimulationen durch autonome Red-Team-Agenten.
Angreifer warten nicht, bis die Abwehr aufgeholt hat, und ihre KI ebenso wenig. Die KI-gestützte Malware und die automatisierten Angriffsketten des vergangenen Jahres haben gezeigt, wie schnell Angreifer mit minimalem menschlichem Aufwand Erkundung, Payload-Entwicklung und Seitwärtsbewegung skalieren können. Das Ergebnis waren nicht nur schnellere Angriffe, sondern auch konsistentere – mit Mustern, Verhaltensweisen und Entscheidungspfaden, die studiert, antizipiert und repliziert werden können. Damit eröffnet sich der Verteidigung eine neue Möglichkeit: Die Vorhersehbarkeit der Angreifer lässt sich als Trainingsgelände nutzen. „KI-gestützte Malware wird vielleicht intelligenter“, sagt Ryan Fetterman, Senior Security Strategist bei Splunk, „aber sie wird auch leichter erkennbar. Jede adaptive Technik – von der Skriptgenerierung auf dem Gerät bis zur Steuerung durch Prompts – gibt der Abwehr neue Muster, die sie aufspüren und stoppen kann.“
Die SOCs werden daher kontinuierliche Feindsimulationen durch autonome Red-Team-Agenten einführen. Solche Systeme stellen Abwehrmaßnahmen auf die Probe, stresstesten die Erkennungsmodelle und decken Schwachstellen auf, lange bevor eine echte Kampagne die Produktion trifft. „Mit KI können Angreifer heute ganze Kampagnen fast ohne menschlichen Aufwand automatisieren“, erklärt Fetterman. „Aber diese Autonomie ist ein zweischneidiges Schwert – die wiederholbaren Muster geben der Verteidigung die Möglichkeit, Angriffe zu simulieren und unsere eigenen Agenten zu trainieren.“ Die SOCs werden nicht mehr darauf warten, dass Warnmeldungen ihnen zeigen, wo sie verwundbar sind; die Teams werden vielmehr ihren eigenen Druck erzeugen – eben indem sie agentenbasierte Angriffssequenzen durchspielen, die genau die Taktiken widerspiegeln, die von den Angreifern automatisiert werden. Abwehrbereitschaft ist dann nicht länger eine jährliche Übung, sondern wird zu einer Disziplin, die lebt und atmet.
Das hat für Analysten und SOC-Leitungen tiefgreifende Auswirkungen. Anstatt im Nachhinein aus Incidents klug zu werden, lernen sie aus kontrollierten Simulationen, die in Maschinengeschwindigkeit ablaufen. KI-Agenten können die Muster der neuesten KI-optimierten Malware abspielen, die Logik von Vibe-Hacking-Kampagnen imitieren und neue Varianten generieren, die die Abwehr stärker herausfordern als jedes menschliche Red Team es könnte. Danach treten die Analysten auf den Plan – sie interpretieren die Ergebnisse, verfeinern die Erkennungslogik und weisen die Agenten an, wie sie weiter vorgehen und testen sollen. Das SOC wird so zu einer Umgebung kontinuierlicher Übungen, in der Menschen und KI-Agenten Tag für Tag ihre Fähigkeiten aneinander schärfen.
Diese Evolution bringt aber auch eine neue Art von Herausforderung mit sich. Wenn nämlich gegnerische KI-Agenten beginnen, die defensiven KI-Agenten austesten, dann werden die Kontrollschleifen immer komplexer. Wer überprüft dann was? Wie kann sichergestellt werden, dass die Simulationen festgelegte Grenzen nicht überschreiten? Doch wenn es SOCs gelingt, klare Überwachungsmuster zu etablieren, bei denen Analysten die Einsatzregeln festlegen, das Systemverhalten verifizieren und die Simulationen an der Risikosituation ausrichten, werden sie die vollen Vorteile dieses neuen Readiness-Zyklus ausschöpfen können.
Und mit der kontinuierlichen Simulation geht etwas noch Wichtigeres einher: Klarheit. Analysten und KI-Agenten erkennen dann nicht nur, ob ihre Abwehrmaßnahmen funktionieren, sondern auch warum – und wie sie gemeinsam weiter vorgehen sollten. Dieser Bedarf an Nachvollziehbarkeit, Ursachenlogik und Revisionssicherheit führt uns direkt an die nächste Grenze: Es gilt sicherzustellen, dass jede autonome Aktion Spuren hinterlässt, auf die sich Menschen verlassen können.
Wenn autonome KI-Agenten immer mehr Untersuchungs- und Reaktionsaufgaben übernehmen, wird Nachvollziehbarkeit genauso wichtig wie Geschwindigkeit. So wie Analysten die Maßnahmen ihrer menschlichen Teamkollegen nachvollziehen können, so erwarten die SOCs auch von KI-Agenten, dass diese nicht nur darlegen, was sie getan haben, sondern auch, warum sie es getan haben. Jede Entscheidung, jeder einzelne Schritt, jedes Signal, auf das sich eine Aktion bezieht, muss erfasst, erklärbar und überprüfbar sein. KI-Agenten sind nicht einfach nur neue Tools – sie sind neue digitale Identitäten mit eigenen Privilegien, Verantwortlichkeiten und Governance-Anforderungen. Rod Soto, Principal Software Engineer des Splunk Threat Research Teams, drückt es so aus: „Agenten fungieren effektiv als neue digitale Identitäten und erfordern in derselben Weise Governance wie User und Anwendungen – einschließlich definierter Privilegien, Kontrollen und strikter Zugangsrechte nach dem Least-Privilege-Prinzip.“
Dieser Wandel markiert den Beginn eines neuen Zeitalters operativer Transparenz. Wenn KI-Agenten Prioritäten sortieren, Signale korrelieren und Gegenmaßnahmen automatisieren, dann müssen die SOC-Verantwortlichen sich auf Prüfpfade verlassen können, die ausführlicher und detailgenauer sind, die genau zeigen, wie Entscheidungen zustande gekommen sind und ob sie richtlinienkonform sind. Mit dieser Transparenz werden Analysten Schlussfolgerungen validieren, Maßnahmen nachvollziehen und Kurskorrekturen vornehmen, falls ein Agent den Kontext falsch interpretiert. Den Compliance-Teams wird diese Transparenz helfen, die regulatorischen Anforderungen zu erfüllen, wenn autonome Entscheidungen bei der Incident-Reaktion eine immer größere Rolle spielen. Und die Führungskräfte werden auf dieser Transparenz Vertrauen aufbauen können – damit das SOC nie zu einer Black Box wird, selbst dann nicht, wenn die Workflows standardmäßig in Maschinengeschwindigkeit ablaufen.
Allerdings wird der Kontrollzyklus mit zunehmender Autonomie komplexer. Bei manchen Workflows werden KI-Agenten andere KI-Agenten überwachen, Logs durchgehen, Ergebnisse überprüfen oder Eskalationen koordinieren. Dies wirft neue Fragen auf: nach Hierarchie und Kontrolle und danach, bis zu welcher Grenze menschliche Überprüfung erhalten bleiben muss. Rod Soto bemerkt dazu: „Wenn Agenten beginnen, andere Agenten zu beaufsichtigen, kann es sein, dass der Kontrollzyklus von Menschen nicht mehr zu erfassen ist, es sei denn, wir verankern das System an klaren Richtlinien und definierten Punkten menschlicher Überprüfung.“ Es wird Aufgabe des SOC sein, diese Grenzen bewusst zu gestalten – und damit sicherzustellen, dass Menschen die Kontrolle über die Mission behalten, auch wenn Agenten einen größeren Teil der Ausführung besorgen.
Die SOCs, denen dies gelingt, werden etwas völlig Neues schaffen: eine Win-Win-Umgebung, in der sich Autonomie und Überprüfbarkeit gegenseitig verstärken. Analysten erhalten dann klareren Einblick in die Entscheidungsfindung. Führungskräfte werden ihre Automatisierungen zuversichtlicher skalieren. Regulierungsbehörden bekommen die Transparenz, die sie benötigen. Und das gesamte Unternehmen bewegt sich in Richtung eines Modells, in dem KI-Agenten das menschliche Urteilsvermögen nicht ersetzen, sondern stärken.
So wie die bemannte Raumfahrt unsere Sicht auf die Welt verändert hat, verändert agentische KI unsere Sicht auf das SOC – und unsere heutigen Vorstellungen von Sicherheit und Innovationskraft. Die bevorstehenden Durchbrüche werden nicht allein an der Technologie liegen, sondern daran, wie Menschen die Technologie einsetzen – wie Analysten Agenten anleiten, wie Führungskräfte Grenzen setzen und wie Teams Vertrauen in Systeme aufbauen, die darauf ausgelegt sind, mit ihnen zusammenzuarbeiten.
Das nächste Zeitalter der Security Operations gehört den Menschen, die jede Mission mit Kontext, Urteilsvermögen und Kreativität angehen. Mit KI-Agenten, die als vertrauenswürdige Partner agieren, erweitert sich der SOC-Horizont. Vor uns liegen grandiose Aussichten.
[1] https://www.iansresearch.com/resources/ians-cybersecurity-staff-compensation-report
Die führenden Unternehmen der Welt vertrauen auf Splunk, einem Unternehmen von Cisco, um ihre digitale Resilienz mit der einheitlichen Sicherheits- und Observability-Plattform, unterstützt durch branchenführende KI, kontinuierlich zu stärken.
Unsere Kunden setzen auf die preisgekrönten Sicherheits- und Observability-Lösungen von Splunk, um die Zuverlässigkeit ihrer komplexen digitalen Umgebungen zu sichern und zu optimieren – in jeder Größenordnung.