97% der Sicherheitsverantwortlichen sagen, KI stärkt ihre Verteidigung. 92% sorgen sich über KI-Agenten in der eigenen Belegschaft. Beide Zahlen kommen aus derselben Umfrage: dem State of AI Cybersecurity 2026 von Darktrace, für den 1.540 Cybersecurity-Fachleute aus 14 Ländern befragt wurden, darunter auch Deutschland. Dieser Widerspruch ist kein Zeichen von Verwirrung. Es ist die ehrlichste Bestandsaufnahme der aktuellen Sicherheitslage: KI ist gleichzeitig das beste Werkzeug im SOC und die neueste Bedrohung, die durch die Eingangstür kommt.
Wir haben die offensiv/defensiv-Dynamik im Cyberbereich bereits ausführlich analysiert. Der Darktrace-Report liefert etwas anderes: Stimmungsbilder von 1.540 Praktikern, die tatsächlich Security-Operations verantworten. Die Daten zeigen, wo das Vertrauen aufhört und die Sorge beginnt.
Der Report im Überblick: Fünf Zahlen, die alles sagen
Darktrace hat gemeinsam mit der AimPoint Group zwischen Oktober und November 2025 Sicherheitsverantwortliche in den USA, Großbritannien, Deutschland, Australien, Singapur, Japan und acht weiteren Ländern befragt. Die Teilnehmer: CISOs, Security Directors, SOC-Manager und operative Sicherheitskräfte.
73% berichten, dass KI-gestützte Bedrohungen bereits erhebliche Auswirkungen haben. Nicht “könnten haben” oder “werden irgendwann.” Bereits jetzt. Drei Viertel der Befragten sehen reale Auswirkungen KI-getriebener Angriffe auf ihre Organisation.
87% sagen, KI erhöht die Anzahl der Bedrohungen, die Aufmerksamkeit erfordern. KI macht nicht nur einzelne Angriffe raffinierter. Sie vervielfacht die Anzahl der Vorfälle, die untersucht werden müssen. Ein Durchsatzproblem, das rein menschliche Teams nicht bewältigen können.
92% sind besorgt über KI-Agenten in der Belegschaft. Das geht über Security-Tool-Bedenken hinaus. Wenn Marketing einen KI-Agenten mit CRM-Zugriff einsetzt oder die Buchhaltung einen autonomen Rechnungsverarbeiter konfiguriert, sehen Sicherheitsteams Risiken, die sie nie genehmigt haben und nicht vollständig überwachen können.
97% glauben, KI stärkt ihre eigenen Verteidigungsfähigkeiten. Die Einmütigkeit ist bemerkenswert. Fast jeder befragte Sicherheitsverantwortliche sieht KI als Multiplikator für Erkennung und Reaktion.
Nur 14% erlauben KI autonome Gegenmaßnahmen. Trotz des Vertrauens in KI bei Erkennung und Analyse behalten die allermeisten einen Menschen in der Entscheidungsschleife. Die Kluft zwischen dem, was Sicherheitsverantwortliche KI zutrauen, und dem, was sie ihr erlauben, beträgt 83 Prozentpunkte.
Warum diese Zahlen sich widersprechen
Der Widerspruch ist strukturell, nicht irrational. Sicherheitsteams vertrauen KI beim Beobachten. Nicht beim Handeln. Die 97% Vertrauen in KI-Verteidigung bezieht sich vor allem auf Bedrohungserkennung, Anomalie-Identifikation und Alert-Triage. Die 14% bei autonomer Abhilfe zeigen: Das Vertrauen verdampft, sobald KI von der Beobachtung zur Intervention übergeht.
Das spiegelt genau das wider, was das Agentic Trust Framework der Cloud Security Alliance adressiert: die Kluft zwischen Lesezugriff (niedriges Risiko, hoher Nutzen) und Schreibzugriff (hohes Risiko, hohe Konsequenz).
Agentic AI als wachsende Angriffsfläche
Der zukunftsweisendste Teil des Darktrace-Reports befasst sich mit KI-Agenten. Die Zahlen zeigen echte Besorgnis. 76% der Sicherheitsfachleute sind beunruhigt über die Integration von KI-Agenten in ihre Organisation. Unter Führungskräften im Sicherheitsbereich sagen 47%, sie seien sehr oder extrem besorgt darüber, dass KI-Agenten direkten Zugang zu sensiblen Daten und kritischen Geschäftsprozessen haben.
Laut Dark Reading glauben 48% der Befragten, dass Agentic AI bis Ende 2026 der wichtigste Angriffsvektor für Cyberkriminelle und staatliche Akteure sein wird. Drei Eigenschaften von KI-Agenten machen sie aus Sicherheitssicht besonders gefährlich:
Agenten agieren mit Mitarbeiterzugang
Ein KI-Agent, der Rechnungen verarbeitet, braucht typischerweise denselben Systemzugang wie ein menschlicher Sachbearbeiter: ERP, Banking-Portale, Lieferantendatenbanken. Anders als der menschliche Mitarbeiter loggt sich der Agent nie aus, hinterfragt nie ungewöhnliche Anfragen (sofern nicht explizit so programmiert) und verarbeitet Transaktionen mit Maschinengeschwindigkeit. Bei einer Kompromittierung kann ein Agent Daten abziehen oder betrügerische Transaktionen schneller autorisieren als jede Insider-Bedrohung in der Geschichte.
Agenten erben und verstärken Berechtigungen
Der Gravitee State of AI Agent Security Report, den wir separat analysiert haben, stellte fest, dass 25,5% der eingesetzten Agenten andere Agenten erzeugen können. Jeder Kind-Agent erbt die Berechtigungen seines Elternteils. In vielen Deployments werden Zugangsdaten über statische API-Schlüssel geteilt. Ein kompromittierter Agent wird zur Kette kompromittierter Agenten.
Agentenverhalten ist kaum von legitimer Aktivität zu unterscheiden
Wenn ein KI-Agent auf eine Datenbank zugreift, sieht der Audit-Log identisch aus wie bei einem menschlichen Nutzer. Sicherheitstools, die auf Verhaltensbaselines aufbauen, tun sich schwer, weil Agentenverhalten per Design “normal” ist. Der Agent wurde berechtigt, genau das zu tun, was er tut. Zu erkennen, wann er etwas tut, das er nicht sollte, erfordert ein Verständnis von Absicht, nicht nur von Aktion.
Die SOC-Realität: Generative KI überall, Autonomie nirgends
Generative KI steckt inzwischen in 77% der Security-Stacks, so die Darktrace-Umfrage. Eine bemerkenswerte Adoptionsrate für eine Technologiekategorie, die vor drei Jahren kaum existierte. Aber wie diese KI eingesetzt wird, zeigt eine bewusste Zurückhaltung.
Was KI heute tatsächlich im SOC macht
Die überwiegende Mehrheit der KI-Deployments im Sicherheitsbetrieb fällt in drei Kategorien:
Alert-Triage und Priorisierung. KI prüft Tausende von Alerts, filtert Rauschen und hebt die 2-3% hervor, die menschliche Untersuchung erfordern. Das ist der ROI-stärkste Anwendungsfall, weil er direkt das Durchsatzproblem adressiert.
Threat-Intelligence-Synthese. KI-Agenten korrelieren Indicators of Compromise über mehrere Feeds, ordnen Angriffsmuster MITRE ATT&CK-Frameworks zu und erstellen Briefings, für die ein menschlicher Analyst Stunden bräuchte.
Untersuchungsunterstützung. KI-Tools wie CrowdStrike Charlotte AI oder Microsoft Security Copilot beantworten natürlichsprachliche Fragen zur Sicherheitslage, generieren Erkennungsregeln und führen Junior-Analysten durch Vorfall-Zeitstrahlen.
Was KI nicht tut
Die Kehrseite der 14%: 86% der Organisationen verlangen menschliche Genehmigung, bevor KI einen kompromittierten Endpoint isoliert, eine verdächtige IP blockiert, Zugangsdaten widerruft oder eine Datei in Quarantäne stellt. Jede dieser Genehmigungen erzeugt Latenz. Wie wir in unserer Cybersecurity-Analyse gezeigt haben, komprimierten Angreifer mit KI-Agenten eine komplette Ransomware-Kampagne von 9 Tagen auf 25 Minuten. Verteidiger, die für jede Reaktion menschliche Freigabe brauchen, können dieses Tempo nicht halten.
Die Präferenz von 85% für MSSPs im SOC-Betrieb spiegelt diese Spannung wider. Organisationen wollen die Vorteile von 24/7-KI-Monitoring, ohne der KI autonome Befugnisse zu erteilen. Die Auslagerung an einen MSSP bedeutet im Grunde: menschliche Aufsicht als Dienstleistung einkaufen, während man von KI-gestützter Erkennung profitiert.
Was Sicherheitsverantwortliche bei der Bedrohungsanalyse falsch einschätzen
Der Darktrace-Report offenbart eine Wissenslücke, die die Strategielücke verstärkt. Einigen Sicherheitsfachleuten fehlt ein differenziertes Verständnis der KI-Typen in ihrem Security-Stack. Sie wissen, dass sie “KI” einsetzen, können aber nicht zwischen regelbasierter Erkennung, Machine-Learning-Anomaliemodellen und Large-Language-Model-Integrationen unterscheiden.
Das spielt eine Rolle, weil die KI-Bedrohungslandschaft nicht einheitlich ist. Eine von einem LLM generierte Phishing-Mail ist qualitativ etwas anderes als ein autonomer Agent, der mehrstufige laterale Bewegung durchführt. Die erforderlichen Verteidigungsmaßnahmen sind unterschiedlich, die Risikokalkulation ist unterschiedlich, und der Monitoring-Ansatz ist unterschiedlich.
Die Governance-Lücke in Zahlen
Die Darktrace-Daten stimmen mit dem überein, was der Deloitte State of AI Report ergab: nur 21% der Unternehmen haben KI-Governance implementiert, obwohl 74% planen, innerhalb von zwei Jahren Agentic AI einzusetzen. Die Gravitee-Umfrage formuliert es drastischer: 47% der eingesetzten KI-Agenten operieren außerhalb jedes Governance-Frameworks, und 45,6% der Organisationen nutzen noch immer geteilte API-Schlüssel für die Agent-zu-Agent-Authentifizierung.
Drei Umfragen, drei verschiedene Methoden, ein konsistentes Ergebnis: Organisationen setzen KI-Agenten schneller ein, als sie sie regulieren. Die 92%-Besorgnis im Darktrace-Report ist hoch, aber Besorgnis ohne entsprechendes Handeln ist bloße Nervosität. Besonders für deutsche Unternehmen ist das relevant: Der EU AI Act tritt im August 2026 in volle Wirkung, und die DSGVO-Anforderungen gelten für jeden KI-Agenten, der personenbezogene Daten verarbeitet.
Was Unternehmen mit diesen Daten anfangen sollten
Der Darktrace-Report ist wertvoll, weil er die Realität der Praktiker abbildet, nicht die Versprechen der Hersteller. Das stützen die Daten tatsächlich:
Identitätsmanagement zuerst. 92% sorgen sich über KI-Agenten, aber das eigentliche Problem ist Identity Governance. Jeder KI-Agent braucht eine eigene Identität, eigene begrenzte Zugangsdaten und einen eigenen Audit-Trail. Geteilte API-Schlüssel und geerbte menschliche Credentials sind die Hauptursache der meisten agentenbezogenen Sicherheitsvorfälle.
Erkennung automatisieren, Abhilfe kontrollieren. Die Aufteilung 97%/14% ist für die meisten Organisationen auf dem aktuellen Reifegrad vertretbar. KI soll Alert-Triage und Untersuchung übernehmen, aber kritische Abhilfemaßnahmen brauchen menschliche Freigabe. Mit wachsender Erfahrung und vorhersagbarerem Agentenverhalten kann die autonome Befugnis schrittweise erweitert werden, nach einem progressiven Autonomiemodell.
Den eigenen KI-Stack verstehen. Wenn das Sicherheitsteam nicht erklären kann, worin sich die ML-Modelle im SIEM vom LLM im SOC-Assistenten unterscheiden, kann es auch nicht bewerten, ob eine neue Agentic-AI-Bedrohung eine neue Verteidigung erfordert.
Die eigenen Agenten überwachen, nicht nur die der Angreifer. Die 76%, die sich über KI-Agent-Integration sorgen, fokussieren sich oft auf externe Bedrohungen. Das größere kurzfristige Risiko sind die eigenen Agenten: der Marketing-Bot mit CRM-Zugriff, der Coding-Assistent mit Schreibrechten im Repository, der HR-Agent, der personenbezogene Daten verarbeitet. Ein Agenten-Inventar anlegen, bevor die nächste Prüfung kommt.
Häufig gestellte Fragen
Was ist der Darktrace State of AI Cybersecurity 2026 Report?
Der Darktrace State of AI Cybersecurity 2026 ist ein umfragebasierter Report, der gemeinsam mit AimPoint Group erstellt wurde. Er befragte 1.540 Cybersecurity-Verantwortliche und -Praktiker aus 14 Ländern zwischen Oktober und November 2025 zu Themen wie KI-gestützte Bedrohungen, Agentic-AI-Risiken, SOC-Automatisierung und Security-Tool-Adoption.
Wie viel Prozent der Sicherheitsverantwortlichen sind über KI-Agenten besorgt?
Laut Darktrace-Umfrage sind 92% der Sicherheitsverantwortlichen über die Sicherheitsimplikationen von KI-Agenten in der Belegschaft besorgt. Im Detail: 76% sorgen sich über die Integration von KI-Agenten in ihre Organisation, und 47% der Führungskräfte sagen, sie seien sehr oder extrem besorgt über Agenten mit Zugriff auf sensible Daten und Geschäftsprozesse.
Warum erlauben nur 14% der Organisationen autonome KI-Abhilfe im SOC?
Obwohl 97% der Sicherheitsverantwortlichen glauben, KI stärke ihre Verteidigung, erlauben nur 14% der Organisationen KI-Systemen, ohne menschliche Aufsicht Abhilfemaßnahmen zu ergreifen. Diese Lücke reflektiert eine Vertrauensgrenze: Organisationen vertrauen KI bei Erkennung und Analyse, aber nicht bei wirkungsvollen Reaktionen wie Endpoint-Isolation oder Credential-Widerruf, wo ein Fehlalarm den Betrieb stören könnte.
Welche Auswirkungen haben KI-gestützte Bedrohungen 2026 auf Unternehmen?
73% der Sicherheitsfachleute berichten, dass KI-gestützte Bedrohungen bereits erhebliche Auswirkungen auf ihre Organisation haben, und 87% sagen, KI erhöhe die Anzahl der Bedrohungen, die Aufmerksamkeit erfordern. Die Hauptsorgen betreffen KI-generiertes Phishing in großem Maßstab, autonome mehrstufige Angriffe und die wachsende Angriffsfläche durch KI-Agent-Deployments im Unternehmen.
Was ist das größte Agentic-AI-Sicherheitsrisiko für Unternehmen?
Das größte Risiko ist die Kombination aus Mitarbeiterzugang, Maschinengeschwindigkeit und minimaler menschlicher Aufsicht. KI-Agenten haben direkten Zugang zu sensiblen Daten und Geschäftsprozessen, hinterfragen aber keine ungewöhnlichen Anfragen, loggen sich nie aus und können kompromittiert werden, ohne die Verhaltens-Anomalieerkennung auszulösen. 48% der Befragten glauben, Agentic AI werde bis Ende 2026 der wichtigste Angriffsvektor.
