- Google hat bestätigt, dass Hacker mithilfe eines KI-Modells eine bislang unbekannte Zero-Day-Lücke entwickelt und ausgenutzt haben.
- Die Schwachstelle ermöglichte laut Google das Umgehen von Zwei-Faktor-Authentifizierung, bevor eine geplante Massenkampagne gestoppt wurde.
Google meldet einen ernsten Befund aus der Cybersicherheit. Kriminelle Angreifer nutzten ein KI-Modell, um eine bisher unbekannte Softwarelücke zu finden und daraus einen funktionierenden Exploit zu bauen. Das ist kein gewöhnlicher Phishing-Fall und auch kein weiteres Beispiel für automatisierte Malware.
KI wird zum Werkzeug für Exploit-Entwicklung
Nach Angaben von Googles Threat-Team ermöglichte die Schwachstelle das Umgehen von Zwei-Faktor-Authentifizierung. Die Angreifer sollen bereits eine größere Ausnutzungskampagne vorbereitet haben, bevor Google eingriff. Besonders brisant ist dabei der Grundsatz: Google bestätigt damit erstmals KI-gestützte Zero-Day-Entwicklung im realen Einsatz.
Ein Zero-Day ist eine Sicherheitslücke, die dem Hersteller noch nicht bekannt ist oder für die noch kein Patch bereitsteht. Genau deshalb sind solche Schwachstellen so wertvoll. Sie treffen Systeme in einer Phase, in der klassische Schutzmaßnahmen oft noch nicht greifen. Bei einer Lücke, die 2FA umgehen kann, wird es noch heikler, weil Zwei-Faktor-Authentifizierung für viele Unternehmen längst als letzte Verteidigungslinie gegen Kontoübernahmen gilt.
Google warnt nun, dass moderne KI-Modelle zunehmend als Verstärker für Schwachstellenforschung und Exploit-Entwicklung genutzt werden. Das heißt nicht, dass ein Modell eigenständig jedes Sicherheitssystem knackt. Aber es kann Angreifern helfen, Code schneller zu analysieren, Logikbrüche zu erkennen, ungewöhnliche Ausnahmefälle zu prüfen und daraus brauchbare Angriffspfade zu bauen.
Der Unterschied liegt in der Geschwindigkeit und Tiefe. Früher brauchte ein Angreifer oft viel Erfahrung, um aus unübersichtlichem Code eine verwertbare Schwachstelle herauszulesen. Ein KI-Modell kann diesen Prozess beschleunigen. Es liest große Codebasen, erkennt Zusammenhänge zwischen Funktionen und beschreibt, wo ein Entwickler zwar eine Schutzlogik eingebaut hat, diese aber an einer anderen Stelle versehentlich wieder aushebelt.
Für Unternehmen ist das unangenehm, weil viele Sicherheitsprogramme noch stark auf bekannte Muster ausgerichtet sind. Sie suchen nach bekannten CVEs, veralteten Bibliotheken, schwachen Passwörtern oder klaren Fehlkonfigurationen. KI-gestützte Angriffe können aber gerade dort ansetzen, wo der Code formal sauber wirkt, die Geschäftslogik aber brüchig ist.
Logikfehler werden für Scanner schwerer erkennbar
Besonders auffällig war laut Google die Art der Schwachstelle. Frontier-LLMs hätten zwar weiter Probleme, komplexe Unternehmensberechtigungen vollständig zu durchdringen. Gleichzeitig könnten sie aber kontextuell immer besser verstehen, was Entwickler eigentlich beabsichtigt haben.
Genau dort entsteht das Risiko. Ein KI-Modell kann prüfen, ob die Logik zur Durchsetzung von Zwei-Faktor-Authentifizierung mit fest eingebauten Ausnahmen kollidiert. Für traditionelle Scanner kann solcher Code funktional korrekt aussehen. Aus Sicherheitssicht ist er aber strategisch gebrochen, weil eine Ausnahme an der falschen Stelle den Schutz aushebelt.
Das ist ein anderer Typ von Schwachstelle als ein einfacher Programmierfehler. Es geht nicht nur um eine fehlende Eingabeprüfung oder eine unsichere Abhängigkeit. Es geht um die Frage, ob ein System in allen realen Nutzungssituationen das tut, was es sicherheitstechnisch tun soll. Gerade bei Authentifizierung, Rollenrechten, Sitzungen und Ausnahmewegen entstehen dort oft kleine Lücken, die lange unentdeckt bleiben.
Für Unternehmen verschiebt sich damit die Verteidigungslinie. Es reicht nicht mehr, nur bekannte Schwachstellen, fehlerhafte Abhängigkeiten oder offensichtliche Konfigurationsprobleme zu suchen. Sicherheitsprüfungen müssen stärker darauf achten, ob Geschäftslogik, Authentifizierung und Ausnahmeregeln im Zusammenspiel wirklich belastbar sind.
Das bedeutet auch mehr Druck auf interne Red-Teams und externe Audits. Wer Anwendungen nur mit klassischen Scannern prüft, wird solche Fehler häufiger übersehen. Gefragt sind Tests, die reale Angriffswege nachstellen: Was passiert, wenn ein Nutzer bestimmte Schritte überspringt? Welche Ausnahme gilt für welche Rolle? Kann eine interne Regel durch eine alte Kompatibilitätsfunktion umgangen werden? Genau diese Fragen werden wichtiger.
Die Entwicklung ist für Verteidiger nicht nur negativ. KI kann auch helfen, Code zu prüfen, verdächtige Muster zu finden und Sicherheitsanalysen zu beschleunigen. Aber der Vorteil liegt nicht automatisch auf der Seite der Verteidigung. Wenn Angreifer dieselben Werkzeuge nutzen, wird der Wettlauf schneller und unübersichtlicher.







