Insights
AI-Einsatz in der Cyber Kill Chain
Blick in das gegnerische Technologie-Arsenal
In einer Doppelausgabe dieses Blogs stellen wir Beispiele vor, die einen realistischen Eindruck vom Einsatz künstlicher Intelligenz in der Cyber Security vermitteln. Dieser Teil widmet sich der AI im Arsenal der Angreifer. In der folgenden Ausgabe gehen wir auf mögliche Gegenmaßnahmen ein und schildern Beispiele für den AI-Einsatz seitens der Verteidiger der Netzwerksicherheit.
"Wenn Du Dich und den Feind kennst, brauchst Du den Ausgang von 100 Schlachten nicht zu fürchten." Sun Tzus Handbuch "Die Kunst des Krieges" enthält einige Erkenntnisse und Ratschläge, die selbst auf den Schauplätzen des "Cyberwar" durchaus Bestand haben. Natürlich sprechen wir hier von anderen Dimensionen – im Falle von AI-gestützten Angriffen auf IT- und OT-Netze sind wir schnell bei x-tausenden Schlachten, die in Sekundenbruchteilen entschieden werden. Was aber nichts daran ändert, dass man den Feind und sein Vorgehen kennen sollte.
Komplexität schafft Angriffsflächen
Generell begünstigen zwei Umstände den Erfolg von Cyberkriminellen: Zum einen schafft Komplexität Angriffsflächen – sei es die Komplexität von Systemarchitekturen oder die einer Verteidigungssoftware. So waren zum Beispiel die Entwickler des AI-gestützten Antivirusprogrammes Cylance gezwungen, ein explizites Whitelisting in die finale Bewertung einzubauen, um ihre Fehlalarmquote zu senken. Dies konnten Angreifer prompt ausnutzen, um durch ein Anhängen entsprechender Strings an die Malware die Erkennung zu umgehen und den Schadcode am Antivirusprogramm vorbeizuschleusen.
Zum anderen können die Angreifer ihre Methoden ständig weiter skalieren und verfeinern. Etwa, wenn die Texte von Phishing Mails nicht mehr von Menschen, sondern maschinell optimiert werden, um Mailfilter zu täuschen – und im nächsten Schritt höhere Klickraten der Nutzer zu provozieren. Auch Phishing URLs lassen sich durch AI-Methoden so gestalten, dass automatische URL-Klassifikatoren sie schwerer erkennen.
Hochgerüstet mit vielfältigem Arsenal
Bei den genannten Beispiele sind wir aber bereits im Rechner des Nutzers angelangt. Daneben existieren entlang der "Cyber Kill Chain" noch weitere Phasen, in denen ein Angreifer vom AI-Einsatz profitieren kann:
Ein wesentliches Werkzeug moderner Cyberkrimineller ist das sogenannte Social Engineering, d. h. die geschickte Beeinflussung potenzieller Opfer, um ein Eindringen in ein System zu ermöglichen oder zu begünstigen. So wurden möglicherweise bereits Deep Fakes zur Nachahmung von Stimmen eingesetzt, um durch sogenannten CEO Fraud hohe Geldzahlungen zu veranlassen.
Ähnlich zu klassischen Verfälschungsangriffen wie ARP-Spoofing, die die Netzwerkarchitektur anvisieren, kann auch ein auf Machine Learning basierendes IDS attackiert werden. Dies geschieht beispielsweise durch eine graduelle Verschiebung der Entscheidungsgrenze der zugrundeliegenden Klassifikatoren durch explizite Generierung und Injektion von Grenzfällen während ihres Trainings. Ebenso ist es möglich, eine angreifende AI bewusst gegen ein verteidigendes AI-System zu trainieren. Dies erfordert aber normalerweise Zugang zu dem verteidigenden System.
Generative Neuronale Netzwerke lassen sich verwenden, um die Kommandoinfrastruktur von Botnets zu verbergen, indem sie die zur Kommunikation nötigen Domainnamen erzeugen. Experimente deuten darauf hin, dass die Vielfältigkeit in den so erzeugten Domainnamen ein effektives Training von Detektoren verhindern kann.
Imitation des Netzwerkverkehrs
Zudem ist die Veränderung von Kommunikationsmustern (z. B. auf Paket- und Timing-Ebene) eine für den Angreifer interessante Option, um im Netzwerk unerkannt zu bleiben. Es gibt Hinweise auf kursierende Malware, die den beobachteten Netzwerkverkehr nachahmen, um ihre Entdeckung zu erschweren. Weiterhin kann eine Malware derart modifiziert werden, dass sie ihre C2-Kommunikation mit Hilfe eines Neuronalen Netzes mutiert. Das so erhaltenen Traffic-Profil ist dann auf Flow-Ebene nicht mehr von Facebook Traffic unterscheidbar und wird von einem IPS nicht gestoppt.
In solch einem Fall spielt ein DPI- und verhaltensbasiertes System wie der cognitix Threat Defender seine Vorteile aus: die Art des Verkehrs wird durch Einbeziehen der Applikationsebene erheblich genauer ermittelt, und die Auswertung historischer Daten über die (Nicht-)Benutzung einer bestimmten Anwendung durch ein bestimmtes Gerät kann ein Blockieren des Verbindungsaufbaues auslösen. Für die nahe Zukunft können aber selbstoptimierende "Next Generation Threats" erwartet werden, welche autonome Entscheidungen hinsichtlich ihres Vorgehens oder relevanter Ziele fällen, ohne dabei eine auffällige C2-Infrastruktur zu benötigen.
Beim Datenaustausch zwischen IT- und OT-Netzen muss höchster Schutz vor Cyberangriffen gewährleistet sein. Informieren Sie sich jetzt über den cognitix Threat Defender.