Veröffentlichungsdatum:
Was passiert danach, wenn nicht nur alle Schwachstellen gefunden worden sind – sondern dann auch fast alle verschwunden sind?
Vor zwei Wochen machte Anthropic mit „Mythos“ Schlagzeilen. Ein Modell, das Schwachstellen findet wie kein Mensch zuvor. Ich habe letzte Woche darüber geschrieben, dass KI der bessere Penetrationstester wird.
Die spannendere Frage kommt aber erst jetzt: Was passiert, wenn diese Systeme nicht nur finden, sondern systematisch alles offenlegen? Und was passiert danach?
Wir stehen wahrscheinlich am Anfang einer Phase, in der Software weltweit „durchleuchtet“ wird. Nicht punktuell – sondern vollständig. Maschinen finden Bugs schneller, skalierter und systematischer als jede menschliche Community zuvor.
Die Konsequenz ist radikal: Die Anzahl technischer Schwachstellen wird in den nächsten Jahren massiv sinken.
Das könnte allerdings erhebliche Nebenwirkungen haben – hier meine Sicht:
Firmen wie NSO (Pegasus) verlieren ihr Geschäftsmodell. Wenn es keine 0-Day-Exploits mehr gibt, weil KI in kurzer Zeit den Großteil dieser Lücken findet – und idealerweise auch patchbar macht – wird es schwierig für Pegasus. 0-Days werden weniger, teurer und kurzlebiger.
Was danach passiert, ist fast schon deterministisch: Die globale IT wird härter. Systeme werden robuster. Viele der heute bekannten Angriffspfade verschwinden.
Am Ende bleiben vor allem zwei Kategorien übrig:
Während technische Angriffsflächen schrumpfen, explodiert gerade eine andere Kategorie: Social Engineering. Was bleibt den „bösen Buben“ auch anderes übrig?
Die Daten sind eindeutig:
Und die Qualität verändert sich fundamental – ein Prozess, den wir heute bereits beobachten können: keine Tippfehler mehr, kein „Nigeria-Prinz“. Sondern perfekt personalisierte, mehrstufige Angriffe über E-Mail, SMS, WhatsApp, Teams, Calls und Deepfake-Video hinweg [6].
Sagen wir, wie es ist:
Dazu kommt eine zweite Entwicklung: KI ist nicht nur ein technischer Hacker, sondern zunehmend auch der bessere Social Engineer. Die Harvard-Studie “Evaluating Large Language Models’ Capability to Launch Fully Automated Spear Phishing Campaigns” zeigt genau das: KI kann überzeugendere und skalierbarere Spear-Phishing-Kampagnen erstellen als Menschen – vollautomatisiert und deutlich günstiger.
Das verschiebt das Spielfeld.
Früher war das Muster:
Heute:
Die Folge: Angreifer gehen dorthin, wo es noch Rendite gibt.
Und die höchste Rendite liegt beim Menschen.
Parallel verschiebt sich der Fokus der Angreifer bereits – weg von der Technik, hin zum User. Denn wenn die Technik dicht ist, bleibt nur noch der direkte Weg: manipulation.
Man zielt auf Emotion statt auf technischen Exploit. Auf Vertrauen statt auf Buffer Overflow.
Selbst ich als Experte wurde kürzlich Opfer einer extrem gut gemachten Phishing-Kampagne. Das Risiko, dass so etwas häufiger passiert, ist real.
Fazit: Wir bewegen uns in eine Welt, in der Software sicherer ist als je zuvor – aber Menschen stärker im Fadenkreuz stehen als jemals zuvor.
Cybersecurity war lange ein technisches Problem. Jetzt wird es endgültig ein Verhaltensproblem.
Und genau dort müssen wir ansetzen: Wir müssen anfangen, Verhalten zu verändern – nicht nur Systeme zu schützen.
Bei CYBERDISE entwickeln wir uns deshalb bewusst weiter: von klassischer Awareness hin zu Systemen, die messbar das Verhalten von Menschen verbessern.
[1] IBM Cost of a Data Breach Report 2024 https://cyberdise-awareness.com/wp-content/uploads/2026/04/Cost-of-a-Data-Breach-Report-2024.pdf