Veröffentlichungsdatum:
Phishing-E-Mails sind selbst für versierte Mitarbeiter immer schwieriger zu erkennen. In einer aktuellen Studie wurden verschiedene große Sprachmodelle (LLMs) auf ihre Fähigkeit getestet, bösartige Inhalte in E-Mails zu erkennen, wobei sehr unterschiedliche Ergebnisse festgestellt wurden.
Ein herausragendes Produkt war Claude 3.5 Sonnet, das bei einer niedrigen Falsch-Positiv-Raten über 90 % erreichte und sogar verdächtige E-Mails markierte, die ein geübter Mitarbeiter übersehen hat. Als das Produkt Verdachtsfälle bewerten sollte, klassifizierte es alle Phishing-E-Mails korrekt und vermied gleichzeitig Fehlalarme bei legitimen Nachrichten. Allerdings hatte es mit regulären Phishing-Mails Schwierigkeiten und erreichte in dieser Kategorie nur eine True-Positive-Rate von 81%…
Erfolgsrate der Intentionserkennung für jede E-Mail-Kategorie, einschließlich der Ergebnisse von Mitarbeitern und anderen ML-basierten Methoden zur Erkennung von Phishing-Mails (keinen Link anklicken). Die legitimen E-Mails werden als korrekt klassifiziert markiert, wenn sie als nicht verdächtig eingestuft werden. Die Erkennungsrate entspricht einer Falsch-Positiv-Rate für legitime Nachrichten.
Oberes Balkendiagramm: Prozentsatz der Fälle, in denen verdächtige Intentionen von den Sprachmodellen erkannt wurden, ohne das Modell nach Verdachtsmomenten zu fragen. Andere ML in der Kontrollgruppe beziehen sich auf die durchschnittlichen Erkennungsraten anderer ML-basierter Erkennungsmethoden bei gängigen Datensätzen.
Unteres Balkendiagramm: Erkennungsergebnis, wenn das Sprachmodell direkt gefragt wird, ob die E-Mail einen verdächtigen Inhalt enthält.
Meine wichtigste Erkenntnis war, dass Claude 3.5 Sonnet alle anderen Modelle bei der Erkennung komplexer Phishing-Angriffe übertraf. Auf die Frage nach der Begründung führte es häufig Details zum Absender und Inhaltsinkonsistenzen an – und ahmte damit die menschliche Intuition nach, jedoch mit höherer Genauigkeit.
Künstliche Intelligenz ist heute ein fester Bestandteil der Cyberkriminalität. Sie muss auch ein fester Bestandteil der Cyberabwehr sowie des Bewusstseins für Cybersicherheit werden. Die Fähigkeit der KI, zu beurteilen, ob eine Nachricht bösartig ist oder nicht, ist mindestens genauso gut wie die vieler Mitarbeiter. Leider verfügt zu Beginn kein KI-Anbieter über ein geeignetes LLM. Würde man den Studienergebnissen Glauben schenken, müsste das Unternehmen mehrere LLMs von verschiedenen Anbietern gleichzeitig für die Cyberabwehr und die Erkennung bösartiger Nachrichten einsetzen. Dies ist in den meisten Fällen nicht praktikabel.
Vertrauen Sie auf CYBERDISE | Cybersecurity Awareness – einem Start-up-Unternehmen aus der Schweiz, das sich auf Cybersicherheit spezialisiert hat und dessen Kernkompetenz die KI ist. Das Unternehmen hat sich zum Ziel gesetzt, traditionelle, ineffektive Lösungen auf dem Markt zu ersetzen. 🚀
Study Source: „Evaluating Large Language Models‘ Capability to Launch Fully Automated Spear Phishing Campaigns,“ arXiv:2412.00586v1, 30 Nov 2024.
Wir freuen uns darauf, Ihnen in den kommenden Ausgaben unseres Newsletters weitere Einblicke, Neuigkeiten und Updates zum Thema Cybersicherheit zu präsentieren.
Wenn Sie diesen Newsletter in Zukunft nicht mehr erhalten möchten, können sie dies über den nachstehenden Icon „Abbestellen“ in die Wege leiten.