AI bei Cyberangriffen
Wie AI die Cyber Kill Chain verändert
Offensive Cyber-Operationen sind gezielte Aktionen, die im Cyberspace durchgeführt werden, um gegnerische Systeme zu infiltrieren, zu stören oder zu zerstören, um strategische Ziele zu verfolgen. Sie werden in der Regel unter dem Gesichtspunkt der Cyber Kill Chain, ein ursprünglich von Lockheed Martin entwickeltes Rahmenwerk. Der Rahmen gliedert einen Angriff in eine strukturierte Abfolge von Phasen, die den Weg des Angreifers von der anfänglichen Erkundung bis zu den endgültigen Maßnahmen zur Erreichung der Ziele (z. B. Datenexfiltration oder Datenvernichtung) nachzeichnen.
2
2
Bewaffnung
Kopplung eines Exploits mit einer Backdoor zu einer auslieferungsfähigen Nutzlast
Lieferung
Übermittlung eines waffenfähigen Pakets an das Opfer per E-Mail, Internet, USB usw.
3
3
4
4
Ausbeutung
Ausnutzung einer Sicherheitslücke zur Ausführung von Code auf dem System des Opfers
Einrichtung
Installation von Malware auf der Anlage
5
5
6
6
Befehl und Kontrolle (C2)
Befehlskanal für die Fernmanipulation des Opfers
Maßnahmen zur Erreichung der Ziele
Mit "Hands on Keyboard"-Zugang erreichen Eindringlinge ihre ursprünglichen Ziele
7
7
In den letzten Jahren haben offensive Cyberoperationen sowohl an Umfang als auch an Komplexität zugenommen. Die Zahl der weltweiten Cyberangriffe nimmt nicht nur stark zu, sondern auch die Art der Angriffe wird immer vielfältiger: im Jahr 2022, 27% der weltweiten Cyberangriffe basierten auf Erpressung, 21% auf Backdoors und 17% auf Ransomware. Künstliche Intelligenz (AI) spielt bei dieser Eskalation und Diversifizierung eine wichtige Rolle. Sie ermöglicht neue Angriffsformen wie Deepfakes oder Schwarm-Malware und stärkt gleichzeitig traditionelle Vektoren wie Phishing oder die Ausnutzung von Schwachstellen. Nach Angaben der CFO Global SurveyEine beachtliche Zahl von 85% der Cybersicherheitsexperten führt die Zunahme der Angriffe auf die Bewaffnung mit generativen AI zurück. In Bengaluru, Indien, wurde eine Staatenbericht bestätigte diesen Trend: Anfang 2025 wurden 80% der Phishing-E-Mails mit AI generiert.
AI ist dabei, die Cyber Kill Chain selbst umzugestalten, und es hat die das Potenzial, jede Phase von offensiven Cyber-Kampagnen zu optimieren. Die Geschwindigkeit und das Ausmaß, in dem AI diese Kette umgestaltet, ist zu einem dringenden nationalen Sicherheitsanliegen geworden.
Dieses Toolkit konzentriert sich speziell auf AI als Angriffsverhinderer und untersucht, wie es die verschiedenen Stufen der Cyber Kill Chain verändert.
Aufklärungsarbeit
Der Angreifer sammelt Informationen über das Ziel, z. B. Mitarbeiterdaten, E-Mails oder Systemdaten, um seinen Angriff zu planen.
Wie AI die Aufklärungsarbeit verändert:
Fall hervorgehoben: ChatGPT als Aufklärungsassistent
Im Jahr 2024, Cybersicherheitsforscherin Sheetal Tamara veröffentlichte eine Arbeit, die zeigt, wie große Sprachmodelle wie ChatGPT die Aufklärungsphase eines Angriffs erheblich beschleunigen können. Anstatt stundenlang Skripte zu schreiben und manuell Open-Source-Informationen zu sammeln, verwendete der Forscher eine kurze Reihe von Gesprächsaufforderungen, zum Beispiel: "Listen Sie alle Subdomänen auf, die Sie für examplecompany.com finden können", "Fassen Sie die Netzwerktopologie des Unternehmens auf der Grundlage öffentlich verfügbarer Informationen zusammen" und "Ermitteln Sie, welche Betriebssysteme und Dienste höchstwahrscheinlich auf diesen Servern laufen".
Innerhalb weniger Minuten lieferte das Modell nützliches Aufklärungsmaterial, unter anderem:
- eine Liste der mit dem Zielunternehmen verbundenen Domänen und Unterdomänen
- wahrscheinliche IP-Adressbereiche
- Hinweise zu SSL/TLS-Konfigurationen, potenziell offenen Ports und gängigen Diensten
- öffentliche Mitarbeiterinformationen (aus LinkedIn und Pressemitteilungen), die für Spearphishing verwendet werden könnten.
Während das Sammeln von OSINT-Informationen normalerweise Stunden oder Tage manueller Arbeit erfordert, reduzierte das Experiment die Aufgabe auf einen dialogorientierten Arbeitsablauf, der weit weniger technisches Fachwissen erfordert. Die Studie unterstreicht daher, wie generative Modelle die Hürde für die automatisierte Aufklärung senken können, was klare Auswirkungen auf die Verteidigungspraxis und die Modellierung von Bedrohungen hat.
-
Automatisierte Scanning-Tools - "Weaponizing AI in Cyberattacks A Comparative Study of AI powered Tools for Offensive Security" (Annis & Hamoudeh 2025)
Die vergleichende Studie zeigt, wie automatisierte Tools (z. B. WebCopilot, Sublist3r, RustScan+Nmap) das Scannen von Netzwerken und die Aufzählung von Subdomains beschleunigen. Die Ergebnisse zeigen, wie AI offensive Aufgaben wie die Simulation von Angriffsszenarien und die dynamische Anpassung an die Verteidigung weiter automatisieren könnte und so den Weg für vollautomatische offensive Sicherheitsoperationen ebnet. -
AI-Werkzeuge für die Erkundung - "Die Bedrohung von Organisationen durch offensive AI" (Mirsky et al. 2023)
Die Studie hebt 32 offensive AI-Tools hervor, die Deep Learning, Reinforcement Learning und NLP nutzen, um die Erkennung von Einstiegspunkten, die Erstellung von Personas und die Auswahl von Zielen zu automatisieren. Diese Tools verbessern OSINT, ermöglichen realistische Deepfakes für Phishing und lassen selbst unerfahrene Angreifer wirkungsvollere Kampagnen planen und starten. -
Informationsbeschaffung und automatische Verwertung - "AI als Waffe für Cyberangriffe" (Yamin et al. 2021)
Die Forschung untersucht die jüngsten Cyberangriffe, bei denen AI-basierte Techniken zum Einsatz kamen, und identifiziert relevante Strategien zur Schadensbegrenzung. Es werden verschiedene AI-Tools (z. B. GyoiThon, Deep Exploit) vorgestellt, die bei der Sammlung von Daten über das System, mögliche Ziele und Abwehrmaßnahmen helfen können.
Bewaffnung
Der Angreifer nutzt die bei der Aufklärung aufgedeckten Informationen, um eine schädliche Nutzlast (z. B. Malware oder Exploits) zu erstellen oder anzupassen und die Schwachstellen des Ziels auszunutzen.
Wie AI die Bewaffnung verändert:
AI rationalisiert die Erstellung und Abstimmung bösartiger Nutzdaten durch Generierung oder Änderung von Code und durch Testen von Varianten anhand von Erkennungsmodellen. Auf diese Weise können diskretere, anpassungsfähigere und gezieltere Nutzdaten erzeugt werden, einschließlich polymorpher Varianten, die ihr Aussehen bei jeder Ausführung ändern. Angreifer-Tests können zur Verfeinerung von Nutzdaten vor dem Einsatz verwendet werden.
Fall hervorgehoben: AI-generierter Malware-Dropper in freier Wildbahn
Im Jahr 2024, Cybersicherheits-Analysten identifizierte eine Phishing-Kampagne, die zunächst routinemäßig erschien: eine Reihe von E-Mails, die eine herkömmliche Malware-Nutzlast verbreiteten. Bei näherer Betrachtung des Droppers (d. h. des kleinen Programms, das für die Installation und Aktivierung der primären Malware verantwortlich ist) zeigte sich jedoch ein ungewöhnliches Merkmal.
Die Struktur und Syntax des Droppers deutete darauf hin, dass er von einem großen Sprachmodell und nicht von einem menschlichen Programmierer erstellt worden war. Obwohl er als einfacher Wrapper fungierte, war der von AI produzierte Dropper sowohl ausgefeilt als auch effektiv und zeigte, dass er in der Lage ist, herkömmliche Erkennungsmethoden zu umgehen. Er umging erfolgreich grundlegende Antivirensignaturen und lieferte die Malware wie beabsichtigt.
Diese Entdeckung war einer der ersten bestätigten Fälle, in denen von AI generierter Schadcode in freier Wildbahn eingesetzt wurde. Die zugrunde liegende Malware war zwar nicht neu, aber die Auslagerung eines Teils des Waffenentwicklungsprozesses an AI stellte eine bedeutende Entwicklung dar. Sie zeigte, wie Angreifer ihre Operationen skalieren, die Entwicklungskosten senken und sich schneller anpassen können, während sie gleichzeitig die Aufdeckungs- und Reaktionsmaßnahmen erschweren.
-
AI-verstärkte polymorphe Malware - "Polymorphe AI-Malware: A Real-World POC and Detection Walkthrough" (Itkin 2025)
In diesem Artikel wird ein Proof-of-Concept für polymorphe Malware auf Basis von AI vorgestellt, die ihren Code zur Laufzeit dynamisch umschreibt, um sich der Erkennung zu entziehen, und zwar in Form eines Keyloggers, der bei jeder Ausführung verschleierte Nutzdaten erzeugt. -
Große Sprachmodelle für die Codegenerierung - "Large Language Models for Code Generation: A Comprehensive Survey of Challenges, Techniques, Evaluation, and Applications" (Huynh & Lin 2025)
Die Studie zeigt, wie LLMs (z. B. CodeLlama, Copilot) automatisch ausführbaren Code aus natürlicher Sprache generieren können, wodurch die Hürde für die Erstellung von Malware, die Entwicklung von Exploits und die Anpassung von Nutzdaten durch Angreifer gesenkt wird. -
AI-generierte neuartige Verschleierungstechniken - "ADVERSARIALuscator: Ein Adversarial-DRL-basierter Obfuskator und metamorpher Malware-SchwarmGenerator" (Sewak et al. 2021)
In dem Artikel wird ADVERSARIALuscator vorgestellt, ein AI, das Malware-Code automatisch umschreiben kann, um viele Versionen zu erstellen und jedes Mal anders auszusehen, um eine Erkennung durch Sicherheitssysteme zu vermeiden. In Tests war etwa ein Drittel dieser Varianten in der Lage, fortschrittliche Sicherheitssysteme zu umgehen. -
AI-gesteuerte "Vibe-Coding"-Malware - "Hacker nutzen AI, um Berichte über Bedrohungsdaten und 'Vibe Code'-Malware zu analysieren" (Kelly 2025)
In diesem Artikel berichten Sicherheitsforscher, dass Hacker generative AI verwenden, um Berichte über Bedrohungsdaten zu lesen und zu interpretieren und dann automatisch funktionierende Malware zu produzieren. Diese als "Vibe-Coding" bezeichnete Technik übersetzt von Menschen lesbare Analysen in Code und ermöglicht es Angreifern, öffentliche Cybersicherheitsforschungen schnell in Exploits zu verwandeln.
Lieferung
Der Angreifer startet den Angriff, indem er die bösartige Nutzlast an das Ziel überträgt, häufig über Phishing-E-Mails, gefälschte Websites oder unsichere Netzwerke.
Wie AI die Zustellung verändert:
AI passt die Zustellungsmechanismen an, um den Erfolg zu maximieren. Es automatisiert die Generierung überzeugender Phishing-Inhalte, Deepfakes in Echtzeit, adaptiver Chat-Interaktionen und realistischer betrügerischer Webseiten und wählt anhand von Aufklärungsdaten den optimalen Zeitpunkt und Kanal für die Zustellung. Dadurch wird der Bedarf an menschlichem Geschick bei der Durchführung von Kampagnen reduziert.
Fall hervorgehoben: Deepfake-CEO-Betrug bei Arup
Im Jahr 2024 werden die Mitarbeiter der Britisches Ingenieurbüro Arup erhielt einen scheinbar legitimen Videoanruf von ihrem regionalen Vorstandsvorsitzenden. Der Geschäftsführer bat dringend um die Überweisung von Geldern im Zusammenhang mit einer vertraulichen Transaktion. Die Person auf dem Bildschirm gab das Aussehen, die Stimme und das Auftreten des CEO mit bemerkenswerter Genauigkeit wieder.
In Wirklichkeit handelte es sich bei dem Anrufer nicht um den Geschäftsführer, sondern um einen von AI generierten Deepfake, der ihn in Echtzeit imitieren sollte. Überzeugt von der Echtheit der Interaktion, genehmigten die Mitarbeiter eine Reihe von Überweisungen in Höhe von fast 25 Millionen US-Dollar.
Dieser Vorfall ist einer der größten gemeldeten Fälle von AI-gestütztem Social Engineering in der Auslieferungsphase eines Cyberangriffs. Er veranschaulicht, dass Phishing nicht mehr von schlecht gestalteten E-Mails oder dubiosen Links abhängen muss. Stattdessen ermöglicht AI jetzt den Einsatz äußerst realistischer Audio- und Video-Imitationen, die nicht nur technische Kontrollen, sondern auch menschliches Urteilsvermögen und Vertrauen aushebeln.
-
LLMs für Social Engineering und Phishing in großem Maßstab - "Erforschung von LLMs für die Malware-Erkennung: Review, Framework Design, and Countermeasure Approaches" (Al-Karaki & Khan 2024)
Der Artikel beschreibt, wie LLMs dazu verwendet werden können, Phishing-Inhalte zu automatisieren, polymorphe Malware zu generieren und gegnerische Eingaben zu erstellen. -
AI-gestütztes Social Engineering - "Der Schatten des Betrugs: Die aufkommende Gefahr von AI-gestütztem Social Engineering und ihre mögliche Heilung" (Yu et al. 2024)
Die Studie zeigt, wie Verbreitungsmodelle und LLMs Phishing und Impersonation personalisierter und überzeugender machen. Sie kategorisiert AI-gestütztes Social Engineering in "3E-Phasen" (Enlarging, Enriching, Emerging) und zeigt auf, wie Angreifer Kampagnen skalieren, neuartige Vektoren einführen und neue Bedrohungen ausnutzen können, um die Verbreitung bösartiger Nutzdaten effektiver zu gestalten. -
AI-generierter Sprachbetrug / Phishing - "Ich habe meine Bank betrogen" (Hoover 2025)
Ein Journalistenexperiment, das AI-generierte gefälschte Stimmen entlarvt, die zum Betrug an Bankkonten verwendet werden.
Ausbeutung
Der Angreifer löst die Nutzlast aus, um eine Schwachstelle auszunutzen und unbefugten Zugriff auf das Zielsystem zu erhalten. Nachdem er in das Unternehmen eingedrungen ist, nutzt der Angreifer diesen Zugang, um sich seitlich zwischen den Systemen zu bewegen, um relevante Informationen zu finden (z. B. sensible Daten, zusätzliche Schwachstellen, E-Mail-Server usw.) und dem Unternehmen zu schaden.
Wie AI die Ausbeutung verändert:
AI unterstützt Angreifer bei der Erkennung, dem Verständnis und der Ausnutzung von Systemschwächen durch die automatische Erkennung von Schwachstellen (z. B. durch intelligentes Fuzzing und geführte Scans), die Erstellung von Angriffsbäumen und das Vorschlagen von Ausnutzungspfaden. Es kann auch gegnerische Eingaben generieren, mit denen Sicherheitstools umgangen oder Verteidigungsmaßnahmen ausgenutzt werden können.
Fall hervorgehoben: Der Wurm Morris II AI
Im Jahr 2024, Forscher demonstrierte eine neue Form eines sich selbst verbreitenden Wurms, der nicht auf der Ausnutzung herkömmlicher Software-Schwachstellen beruhte. Stattdessen zielte er auf generative AI-Systeme selbst ab.
Benannt Morris II In Anlehnung an den berüchtigten Morris-Wurm von 1988 wurden bei diesem Proof-of-Concept-Angriff gegnerische Aufforderungen verwendet, um AI-Modelle so zu manipulieren, dass sie bösartige Anweisungen reproduzieren und verbreiten. Sobald ein System "infiziert" war, konnte der Wurm selbstständig weitere Aufforderungen generieren, die den AI dazu veranlassten, den Angriff zu replizieren und an andere Modelle zu übertragen.
Im Gegensatz zu herkömmlichen Würmern, die in der Regel ungepatchten Code ausnutzen, Morris II verbreiten, indem sie die Offenheit und Unvorhersehbarkeit des generativen AI-Verhaltens ausnutzen. Die Demonstration unterstrich, dass Organisationen, die generatives AI zunehmend in betriebliche Arbeitsabläufe einbinden, neuartige Angriffsflächen bieten können, bei denen die Schwachstelle nicht im Quellcode, sondern in den Trainingsdaten und Modellreaktionen liegt.
-
Feindselig und offensiv AI - "Ausnutzung von AI für Angriffe: Zum Zusammenspiel von adversarialem AI und offensivem AI" (Shröer & Pajola 2025)
In der Studie wird dargelegt, wie Angreifer Schwachstellen in AI-Systemen durch gegnerische Eingaben ausnutzen oder AI selbst als Waffe einsetzen können, um effektivere Angriffe auf herkömmliche Ziele zu starten, wodurch die doppelte Rolle von AI als Werkzeug und Ziel von Cyberangriffen deutlich wird. -
Bösartige Malware-Binärdateien - "Adversarial Malware Binaries: Evading Deep Learning for Malware Detection in Executables" (Kolosnjarski et al. 2018)
Die Studie zeigt gradientenbasierte Angriffe, die weniger als 1% Bytes in ausführbaren Dateien verändern und dabei die Funktionalität beibehalten, so dass Deep-Learning-Malware-Detektoren, die auf rohe Bytes trainiert sind, erfolgreich umgangen werden.
Einrichtung
Der Angreifer installiert Malware oder Backdoors, um (versteckten) dauerhaften Zugang und Kontrolle über das Zielsystem zu erhalten.
Wie AI die Installation verändert:
AI ist in der Lage, adaptive Persistenztechniken zu entwickeln und die effektivsten Installationsvektoren vorzuschlagen, indem es die Daten früherer Phasen analysiert, aber die vollständige Automatisierung der nuancierten, entscheidungsintensiven Installationsphase bleibt begrenzt. AI ermöglicht es Malware, ihr Verhalten zu ändern, um eine Entdeckung zu vermeiden, und den optimalen Zeitpunkt und Eintrittspunkt zu wählen.
Fall hervorgehoben: Ransomware, die lernt, sich zu verstecken
Im Jahr 2024, Forscher ein System eingeführt, das als EGANein AI-Modell, das entwickelt wurde, um zu untersuchen, wie Ransomware Lernstrategien einsetzen könnte, um der Entdeckung zu entgehen. Im Gegensatz zu herkömmlicher statischer Malware, die entweder erkannt oder übersehen wird, EGAN durch iteratives Experimentieren betrieben.
Das System änderte den Code der Ransomware wiederholt und testete verschiedene Varianten, bis es eine Variante produzierte, die die Antivirenabwehr umgehen konnte, ohne ihre volle Funktionalität zu verlieren. Tatsächlich "lernte" die Malware, wie sie anomaliebasierte Erkennungsmechanismen umgehen kann, die normalerweise verdächtiges Verhalten effektiv erkennen.
Obwohl sie in einer Forschungsumgebung entstanden sind, EGAN demonstrierte, wie AI-gesteuerte Persistenzmechanismen die Erkennung und Beseitigung von Ransomware erheblich erschweren können, sobald sie einmal eingesetzt wurde. Anstatt von vordefinierten Umgehungstechniken abhängig zu sein, passt sich die Malware dynamisch an, was die Aussicht auf nahezu "unbesiegbare" Schadsoftware eröffnet.
-
RL-basierte Malware-Umgehung - "Lernen, um statische PE-Maschine-Lern-Malware-Modelle über Reinforcement Learning zu umgehen" (Anderson et al. 2018)
Die Studie zeigt, wie Agenten mit Verstärkungslernen Windows PE-Malware iterativ mit funktionserhaltenden Änderungen modifizieren können, um statische Malware-Detektoren mit maschinellem Lernen zu umgehen, und so eine adaptive Blackbox-Installation von dauerhafter Malware ermöglichen.
Befehl und Kontrolle
Nachdem der Angreifer die Kontrolle über mehrere Systeme erlangt hat, erstellt er ein Kontrollzentrum, um sie aus der Ferne zu nutzen. Der Angreifer stellt über verschiedene Kanäle (z. B. Web, DNS oder E-Mail) eine Fernkommunikation mit dem kompromittierten System her, um den Betrieb zu kontrollieren und einer Entdeckung zu entgehen. Der Angreifer verwendet verschiedene Techniken wie Verschleierung, um seine Spuren zu verwischen und einer Entdeckung zu entgehen, oder Denial-of-Service-Angriffe (DoS), um Sicherheitsexperten von ihren wahren Zielen abzulenken.
Wie AI Führung und Kontrolle (C2) verändert:
AI ermöglicht eine verdeckte C2-Kommunikation, indem es Datenverkehr generiert, der legitime Aktivitäten imitiert, ausweichende Algorithmen zur Domänengenerierung entwickelt und dezentralisierte, anpassungsfähige Botnets orchestriert. Außerdem kann es das C2-Verhalten so abstimmen, dass es Anomalie-Erkennern entgeht.
Fall hervorgehoben: AI-koordinierte Botnetze, Schwärme mit eigenem Willen
Im Jahr 2023, Forscher eine neuartige Form eines Botnetzes demonstriert, das von AI angetrieben wird. Herkömmliche Botnetze stützen sich in der Regel auf einen zentralen Command-and-Control-Server (C2), über den ein einziger Knotenpunkt Anweisungen erteilt, die dann von kompromittierten Computern, den "Bots", ausgeführt werden. Diese Architektur kann jedoch oft unterbrochen werden, sobald die Verteidiger den zentralen Server identifizieren und deaktivieren.
Das AI-aktivierte Botnet verwendet ein anderes Modell. Jeder Knoten im Netzwerk setzte Verstärkungslernen ein, um autonom zu bestimmen, wann Angriffe eingeleitet werden sollten, welche Ziele verfolgt werden sollten und wie die Taktik als Reaktion auf Abwehrmaßnahmen angepasst werden sollte. Anstatt auf zentrale Anweisungen zu warten, arbeiteten die Bots dezentral zusammen und fungierten als eine Art selbstorganisierender Bienenstock.
Dieser Aufbau machte das Botnetz widerstandsfähiger und schwieriger zu entdecken. Selbst wenn einige Knoten neutralisiert wurden, konnte sich der Rest anpassen und weiterarbeiten. Für die Verteidiger bestand die Aufgabe nicht mehr nur darin, einen einzelnen Server zu stören, sondern einen verteilten, anpassungsfähigen Schwarm kompromittierter Rechner zu bekämpfen.
-
AI-basierte Protokollmanipulation und Verbergen von Spuren - "5 Anti-Forensik-Techniken, um Ermittler auszutricksen (+ Beispiele & Tipps zur Erkennung)" (CyberJunkie 2023)
In Berichten aus den Jahren 2024-2025 wurde beschrieben, wie AI dazu verwendet werden könnte, digitale Protokolle zu löschen oder zu verändern, um Angriffe vor den Ermittlern zu verbergen, obwohl echte Beispiele aus der Praxis noch selten sind. -
Umgehung von GAN-basierten Systemen zur Erkennung von Netzwerkeinbrüchen - "NAttack! Adversarial Attacks to bypass a GAN based classifier trained to detect Network intrusion" (Piplai et al. 2020)
Die Studie zeigt, wie schädliche Angriffe erfolgreich GAN-geschulte Systeme zur Erkennung von Eindringlingen umgehen können, so dass Angreifer den C2-Verkehr als normale Netzwerkaktivität tarnen können.
Maßnahmen zu den Zielen
Der Angreifer verfolgt sein ultimatives Ziel, z. B. Datenexfiltration, Datenverschlüsselung oder Datenvernichtung.
Wie AI die Maßnahmen zur Erreichung der Ziele verändert:
AI beschleunigt und verfeinert die letzten Aufgaben eines Angriffs: automatisierte Datenexfiltration, Priorisierung hochwertiger Vermögenswerte, maßgeschneiderte Erpressungsbotschaften und groß angelegte Inhaltsgenerierung für Desinformation oder Störung. Die abschließenden strategischen Entscheidungen erfordern oft noch menschliches Urteilsvermögen, aber AI verkürzt den Weg zu diesen Entscheidungen.
Fall hervorgehoben: PromptLocker, eine AI-gesteuerte Ransomware-Orchestrierung
Im Jahr 2024, Forscher der New York University stellten vor PromptLockerein Proof-of-Concept-Ransomware-System, das von einem umfangreichen Sprachmodell gesteuert wird. Im Gegensatz zu herkömmlicher Ransomware, die vordefinierten Verhaltensweisen folgt, PromptLocker traf Entscheidungen in Echtzeit und automatisierte mehrere Phasen des Lebenszyklus eines Angriffs. In der Demonstration arbeitete das Modell autonom:
- die wertvollsten Ziele innerhalb eines kompromittierten Systems ausgewählt,
- sensible Daten vor der Verschlüsselung exfiltriert und so den Einfluss auf die Opfer erhöht,
- verschlüsselte Datenträger und Dateien, um den Zugriff zu verweigern
- maßgeschneiderte Erpresserbriefe zu erstellen und den Ton und die Forderungen an das Profil des Opfers anzupassen (z. B. finanzielle Leistungsfähigkeit und Branche).
Obwohl die Arbeit in einer kontrollierten Forschungsumgebung durchgeführt wurde, PromptLocker veranschaulicht, wie generatives AI Aufgaben automatisieren und skalieren kann, die zuvor menschliche Planung erforderten, und so die Fähigkeit von Angreifern beschleunigt, ihre Ziele zu erreichen und sich an veränderte Umstände anzupassen.
-
AI-generierte Fehlinformationen in großem Maßstab - "Eine pro-russische Desinformationskampagne nutzt kostenlose AI-Tools, um eine 'Inhaltsexplosion' anzuheizen" (Gilbert 2025)
In dem Artikel wird erläutert, wie die mit Russland in Verbindung stehende Kampagne "Operation Overload" (2023-2025) AI-Tools verwendet, um massenhaft gefälschte Bilder, Videos und stimmlich geklonte Clips von Personen des öffentlichen Lebens zu produzieren. Dieses Material wird über Bot-Netzwerke in den sozialen Medien weit verbreitet, um spaltende Narrative zu verbreiten. -
AI erstellte gefälschte soziale Profile zur Verstärkung - "Merkmale und Verbreitung von gefälschten Social-Media-Profilen mit AI-generierten Gesichtern" (Yang et al. 2024)
Die Untersuchung ergab, dass über 1400 Twitter-Konten mit von AI generierten Profilbildern in Netzwerken organisiert sind, um Betrügereien und politisch aufgeladene Nachrichten zu verbreiten, wobei Tausende solcher Konten täglich aktiv sind. -
AI-erstellte gefälschte Dokumente und Nachrichten (Psyops) - "Die Lügen, die Russland sich selbst erzählt Die Propagandisten des Landes zielen auf den Westen ab - führen aber auch den Kreml in die Irre" (Rid 2024)
Der Artikel erklärt, wie eine laufende Doppelgänger-Kampagne überzeugende gefälschte Versionen legitimer Nachrichten-Websites erstellt und von AI generierte Artikel veröffentlicht, um pro-russische Narrative im Westen zu fördern.
Fragen zur Diskussion
- Welche Stufe der Cyber Kill Chain wird sich durch AI in Zukunft wahrscheinlich am stärksten verändern, und warum? Und in welcher Phase liefert AI derzeit die vielversprechendsten Ergebnisse für Angreifer? In welcher Phase scheint die Umsetzung von AI weniger wirksam und vielversprechend zu sein?
- Liegt der Vorteil von AI im Cyberspace eher bei den Angreifern oder den Verteidigern?
- Wird der weit verbreitete Zugang zu AI die Spielregeln für Amateure angleichen oder vor allem die gut ausgestatteten Gegner stärken?
- Wie verändert die Fähigkeit von AI, die Cyber-Kill-Chain zu automatisieren und zu beschleunigen, das Wesen von Cyberangriffen?
- Könnte AI Angriffe so schnell und anpassungsfähig machen, dass herkömmliche Verteidigungsmechanismen überflüssig werden?
- Wer trägt die Verantwortung, wenn AI-Modelle für Cyberangriffe missbraucht werden: Entwickler, Bereitsteller oder Angreifer?
- Wie können die politischen Entscheidungsträger offensive AI regulieren, ohne die Innovation bei defensiven oder zivilen Anwendungen zu ersticken?
- Wird AI Cyberkonflikte in Richtung autonomer, "Maschine-gegen-Maschine"-Kriegsführung verschieben?
- Könnte AI das Modell der Cyber-Kill-Chain grundlegend in etwas nichtlineares und kontinuierlich anpassbares umwandeln?