Warum die Warnung 2026 plötzlich sehr konkret wird
Lange wurde über KI in der Cybersicherheit eher abstrakt gesprochen. 2026 hat sich das deutlich verändert. Ein wesentlicher Grund dafür ist Claude Mythos Preview, ein nur sehr eingeschränkt bereitgestelltes Modell, das in kurzer Zeit tausende bislang unbekannte Schwachstellen in großen Betriebssystemen und Browsern identifiziert haben soll.
Zusätzlich wurde beschrieben, dass das Modell in vielen Fällen weitgehend autonom arbeitete und dabei auch Exploit-Pfade fand. Damit wird die Warnung in der Überschrift greifbar: KI erhöht 2026 das Sicherheitsrisiko jedes IT-Systems, weil sie die Geschwindigkeit, Reichweite und Skalierbarkeit von Schwachstellensuche und Angriffsvorbereitung massiv verändert.
Was früher tiefe Spezialisierung, viel Zeit und erfahrene Forschungsteams erforderte, lässt sich durch leistungsfähige Modelle erheblich beschleunigen. Das verschiebt das Verhältnis zwischen Angriff und Verteidigung.
Gleichzeitig ist das keine rein theoretische Entwicklung. Frontier-Modelle können inzwischen in Teilbereichen mit den besten menschlichen Expertinnen und Experten konkurrieren, wenn es um das Finden und Ausnutzen komplexer Schwachstellen geht. Ohne wirksame Schutzmaßnahmen könnten solche Fähigkeiten dazu führen, dass Angriffe häufiger, schneller und potenziell schädlicher werden.
Claude Mythos zeigt, was sich gerade grundlegend verschiebt
Besonders brisant ist, dass es nicht bei allgemeinen Aussagen bleibt. Genannt werden konkrete Beispiele, darunter eine 27 Jahre alte Schwachstelle in OpenBSD, eine 16 Jahre alte Schwachstelle in FFmpeg sowie mehrere verkettene Linux-Kernel-Lücken, mit denen sich Rechte bis zur vollständigen Kontrolle eines Systems ausweiten ließen.
Auch die Leistungswerte zeigen, dass hier ein deutlicher Sprung stattgefunden hat. In einem standardisierten Sicherheitstest erzielte Mythos Preview 83,1 Prozent, während ein anderes starkes Modell nur auf 66,6 Prozent kam. Das bedeutet: Das neue Modell ist bei sicherheitsrelevanten Aufgaben spürbar leistungsfähiger.
Noch deutlicher wird das in internen Praxistests. Dort löste das Modell hunderte Fehler in Testsystemen aus und konnte in mehreren Fällen sogar Sicherheitsmechanismen vollständig umgehen – obwohl die betroffenen Systeme bereits auf dem neuesten Stand und vollständig gepatcht waren. Das zeigt, wie weit KI inzwischen bei der Suche nach Schwachstellen gekommen ist. Das ist mehr als ein normaler Entwicklungsschritt. Es zeigt, dass KI-Modelle in der offensiven Sicherheitsforschung eine neue Reife erreichen.
Noch bedenklicher ist ein anderer Punkt: Selbst Personen ohne formale Security-Ausbildung konnten mit dem Modell in kurzer Zeit funktionierende Remote-Code-Execution-Exploits erzeugen. Die eigentliche Zäsur liegt also nicht nur in besserer Technik, sondern in der Demokratisierung offensiver Fähigkeiten.
Warum das nicht nur ein Problem für Softwarehersteller ist
Die Warnung betrifft nicht nur Unternehmen, die selbst KI entwickeln oder sicherheitskritische Software bauen. Sie betrifft praktisch jede Organisation, die digitale Systeme betreibt.
KI wirkt 2026 auf mehreren Ebenen gleichzeitig. Sie steckt in Entwicklungswerkzeugen, SaaS-Plattformen, Copilots, Suchfunktionen, Support-Prozessen, Security-Lösungen, Cloud-Umgebungen und automatisierten Geschäftsabläufen. Sobald KI an Daten, Entscheidungen oder Workflows beteiligt ist, verändert sich das Risikoprofil.
Die eigentliche Verschiebung lautet deshalb: Nicht nur KI-Systeme sind riskant. Jedes IT-System mit KI-Bezug bekommt ein neues Sicherheitsprofil.
Das kann direkt passieren, wenn ein Assistent mit internen Datenquellen verbunden ist. Es kann aber auch indirekt passieren, etwa wenn Entwickler KI-Coding-Tools nutzen, Fachbereiche externe GenAI-Werkzeuge verwenden oder Security-Teams ihre Analyseplattformen mit KI erweitern.
Hinzu kommt die Realität vieler Unternehmen: CRM, ERP, Dokumentenmanagement, Ticketsysteme, Identitätsdienste, Data-Warehouse-Lösungen und Fachanwendungen sind längst über APIs, Rollenmodelle und Freigabestrecken miteinander verbunden.
Wird KI an diese Architektur angeschlossen, vervielfachen sich die sicherheitsrelevanten Fragen:
- Welche Daten sieht das Modell?
- Welche Rechte hat es?
- Welche Aktionen darf es auslösen?
- Wie werden Ausgaben validiert?
- Was wird protokolliert?
Genau an diesen Übergängen entstehen die kritischen Angriffsflächen.
Wo Unternehmen sich 2026 ganz konkret neue Angriffsflächen schaffen
In vielen Unternehmen entsteht das zusätzliche Risiko nicht durch ein einzelnes „gefährliches KI-System“, sondern durch alltägliche Nutzung.
Ein typischer Fall ist der KI-Assistent im Wissens- oder Dokumentensystem. Der Nutzen ist hoch: Informationen werden schneller gefunden, Anfragen schneller beantwortet, Prozesse effizienter. Das Risiko entsteht, wenn der Assistent Inhalte aus Bereichen zusammenführt, die eigentlich unterschiedlich berechtigt sind.
Ein weiteres Beispiel sind Copilots in Office-, CRM- oder ERP-Prozessen. Sie schreiben Antworten vor, fassen Vorgänge zusammen, priorisieren Informationen oder bereiten Angebote vor. Kritisch wird es, wenn vertrauliche Inhalte in externe Dienste fließen oder Mitarbeitende KI-Ausgaben ungeprüft in operative Entscheidungen übernehmen.
Hinzu kommt ein Problem, das oft unterschätzt wird: kompromittierte Zugänge zu KI-Accounts. Manipulierte Ausgaben, Datenabfluss oder eingeschleuste bösartige Prompts sind reale Angriffsvektoren. 2025 wurden mehr als 300.000 ChatGPT-Zugangsdaten durch Infostealer kompromittiert.
Ein drittes Feld ist die Software-Lieferkette. Unternehmen arbeiten heute mit CI/CD, Open Source, SaaS-Integrationen und KI-unterstützter Entwicklung. Große Supply-Chain- und Third-Party-Kompromittierungen haben sich seit 2020 nahezu vervierfacht.
Für viele mittelständische Unternehmen liegt die Schwachstelle deshalb nicht im eigenen Kernsystem, sondern in der Kombination aus Standardsoftware, Integrationen, Berechtigungen und externen Diensten.
KI verschärft vor allem bekannte Schwächen
Der vielleicht wichtigste Punkt ist: KI macht alte Probleme nicht obsolet, sondern gefährlicher.
Ein aktueller Befund zeigt einen 44-prozentigen Anstieg bei Angriffen, die mit der Ausnutzung öffentlich erreichbarer Anwendungen beginnen. Gleichzeitig gingen 40 Prozent der beobachteten Vorfälle auf Schwachstellenausnutzung zurück.
Das zeigt, dass Angreifer ihre Methoden nicht komplett neu erfinden müssen. Sie beschleunigen bestehende Playbooks mit neuen Werkzeugen.
Gerade deshalb bleiben klassische Schwächen hochrelevant:
- fehlende MFA
- zu breite Berechtigungen
- unzureichende Passwort- und Credential-Hygiene
- lückenhaftes Patch-Management
- exponierte Webanwendungen
- schlecht geschützte APIs
- unsaubere Konfigurationen
KI verändert die Verteidigungslage nicht dadurch, dass alte Risiken verschwinden, sondern dadurch, dass ihre Ausnutzung schneller und effizienter wird.
Für Unternehmen hat das direkte Folgen. Sie können 2026 noch weniger darauf hoffen, dass Fehlkonfigurationen oder alte Softwarefehler lange unentdeckt bleiben. Die Zeitspanne zwischen Sichtbarkeit und möglicher Ausnutzung schrumpft.
Dadurch gewinnen Prävention, Härtung, kontinuierliches Schwachstellenmanagement und belastbare Betriebsprozesse weiter an Gewicht.
Welche neuen KI-Risiken zusätzlich hinzukommen
Neben der Verschärfung klassischer Schwächen kommen 2026 auch echte KI-spezifische Risiken hinzu.
Zu den zentralen Problemfeldern zählen:
- Prompt Injection
- Sensitive Information Disclosure
- Excessive Agency
- System Prompt Leakage
- Vector and Embedding Weaknesses
Diese Begriffe lassen sich sehr konkret in Unternehmensrealität übersetzen.
Prompt Injection wird zum Problem, wenn ein Modell manipulierte Inhalte aus E-Mails, Dokumenten oder Webseiten übernimmt und dadurch zu falschen oder gefährlichen Ausgaben verleitet wird.
Sensitive Information Disclosure entsteht, wenn vertrauliche Inhalte in Antworten, Logs oder Fremdsysteme gelangen.
Excessive Agency beschreibt Fälle, in denen ein KI-Agent zu viele Rechte erhält und deshalb Aktionen auslösen kann, die eigentlich menschliche Freigabe erfordern würden.
Gerade in Chatbots, Assistenten, RAG-Systemen, internen Wissensplattformen oder Automatisierungsworkflows sind das keine Randthemen. Sie entstehen überall dort, wo Modelle mit Unternehmensdaten, Tools und Entscheidungen verbunden werden.
Der KI-Einsatz im Unternehmen ist deshalb nicht nur eine Frage von Produktivität und Effizienz, sondern immer auch eine Frage von Sicherheitsdesign, Berechtigung und Kontrolle.
Die andere Seite: KI kann Sicherheitslücken auch früher finden als Menschen
Der Artikel sollte aber nicht bei der Warnung stehen bleiben. Gerade der Fall Mythos zeigt auch die zweite Realität: Dieselben Fähigkeiten, die Angriffe beschleunigen können, lassen sich defensiv nutzen.
Leistungsfähige Modelle können kritische Software schneller prüfen, Schwachstellen aufdecken und Patches beschleunigen. Genau das macht sie auch für die Verteidigung so relevant.
Für Unternehmen ist das hochinteressant. In der Praxis scheitert Sicherheit oft nicht am fehlenden Wissen, sondern an fehlender Kapazität. Zu viele Findings, zu viele Systeme, zu viele Abhängigkeiten, zu wenig Zeit.
KI kann hier echten Mehrwert schaffen, etwa:
- bei der Priorisierung von Schwachstellen
- bei der Analyse großer Logmengen
- bei der Korrelation von Sicherheitsereignissen
- bei der Erkennung auffälliger Konfigurationen
- bei Code-Reviews und Tests
Der entscheidende Unterschied liegt also nicht in der Technologie selbst, sondern in ihrem Einsatz. Unkontrolliert erhöht KI das Risiko. Kontrolliert kann sie das Sicherheitsniveau deutlich anheben.
Was das für typische Anwendungsfälle in Unternehmen bedeutet
Im Kundenservice und in Serviceportalen können KI-Assistenten Anfragen schneller beantworten und Support-Teams entlasten. Kritisch wird es, wenn sie auf Vertragsdaten, Identitätsdaten oder interne Wissensbestände zugreifen und Antworten ohne ausreichende Rechteprüfung erzeugen.
Im Dokumentenmanagement und in Wissensplattformen beschleunigen semantische Suche und Zusammenfassungen den Zugriff auf Informationen. Gleichzeitig steigt das Risiko, dass vertrauliche Inhalte über Rollen- oder Bereichsgrenzen hinweg sichtbar werden oder in externe Verarbeitungsdienste gelangen.
In Softwareentwicklung und DevOps macht KI Teams schneller. Gleichzeitig erhöht sich die Gefahr, dass problematischer Code, unsichere Bibliotheken oder fehlerhafte Konfigurationen beschleunigt in Pipelines gelangen.
In Security Operations wiederum kann KI Warnmeldungen vorsortieren, Muster erkennen und Analysten entlasten. Aber auch dort gilt: Ein Tool allein ersetzt weder Härtung noch Logging noch klare Incident-Prozesse.
Die größten Effekte entstehen dann, wenn KI in belastbare Sicherheitsprozesse eingebettet wird.
Was Unternehmen jetzt konkret tun sollten
Wenn 2026 eines deutlich wird, dann dies: Unternehmen müssen ihre Sicherheitsstrategie an eine neue Geschwindigkeit anpassen.
Der wichtigste Schritt ist nicht Panik, sondern Priorisierung. Zunächst braucht es Transparenz darüber, wo im Unternehmen KI bereits eingesetzt wird, welche Daten betroffen sind und welche Systeme oder Drittanbieter daran hängen. Ohne diese Übersicht bleibt jede Risikobewertung lückenhaft.
Danach geht es um technische und organisatorische Leitplanken. Assistenten, Agenten und Integrationen sollten nur die Rechte erhalten, die sie für ihren Zweck tatsächlich benötigen. Öffentlich erreichbare Anwendungen, APIs und Identitäten müssen konsequent gehärtet werden.
Auch Patch- und Schwachstellenmanagement müssen schneller werden, weil die Schonfrist zwischen Sichtbarkeit und Ausnutzung schrumpft. Externe GenAI-Nutzung in Fachbereichen sollte verbindlich geregelt sein, statt unkontrolliert über Schatten-IT zu wachsen.
Sinnvoll sind vor allem diese Maßnahmen:
- KI-Einsatz im Unternehmen vollständig inventarisieren
- Zugriffsrechte für Assistenten, Agenten und Integrationen strikt begrenzen
- öffentlich erreichbare Anwendungen, APIs und Identitäten härten
- Patch- und Schwachstellenmanagement beschleunigen
- externe GenAI-Nutzung in Fachbereichen verbindlich regeln
- Datenflüsse in RAG-, Copilot- und Automatisierungs-Szenarien prüfen
- Security-Teams mit KI-gestützter Analyse gezielt entlasten
- Mitarbeitende für KI-gestütztes Social Engineering sensibilisieren
Unternehmen brauchen 2026 nicht nur mehr Security, sondern schnellere Security.
Fazit
Claude Mythos macht sichtbar, wie stark KI die Cybersicherheit bereits verändert. KI ist längst nicht mehr nur ein zusätzliches Werkzeug in der IT, sondern ein Beschleuniger für Schwachstellensuche, Exploit-Entwicklung und Angriffsvorbereitung.
Damit steigt das Sicherheitsrisiko von IT-Systemen real und messbar.
Gleichzeitig zeigt dieselbe Entwicklung, dass KI Sicherheitslücken auch schneller aufdecken, Security-Teams entlasten und Verteidigung skalierbarer machen kann. Die Zukunft der Cybersecurity entscheidet sich deshalb nicht an der Frage, ob KI eingesetzt wird, sondern wie kontrolliert, integriert und sicher sie eingesetzt wird.
Wer KI ohne klare Leitplanken, saubere Berechtigungen und belastbare Betriebsprozesse einführt, vergrößert die Angriffsfläche. Wer KI in eine durchdachte Sicherheitsarchitektur einbettet, kann daraus einen echten Vorteil machen.
Für GECKO ist genau das der entscheidende Punkt: Unternehmen brauchen 2026 Partner, die individuelle Softwareentwicklung, sichere IT-Betriebsmodelle und belastbare Business-Anwendungen zusammendenken. Denn die neue KI-Realität betrifft nicht nur einzelne Tools, sondern ganze Systemlandschaften.



