AI bei Cyberangriffen

Wie AI die Cyber Kill Chain verändert

Offensive Cyber-Operationen sind gezielte Aktionen, die im Cyberspace durchgeführt werden, um gegnerische Systeme zu infiltrieren, zu stören oder zu zerstören, um strategische Ziele zu verfolgen. Sie werden in der Regel unter dem Gesichtspunkt der Cyber Kill Chain, ein ursprünglich von Lockheed Martin entwickeltes Rahmenwerk. Der Rahmen gliedert einen Angriff in eine strukturierte Abfolge von Phasen, die den Weg des Angreifers von der anfänglichen Erkundung bis zu den endgültigen Maßnahmen zur Erreichung der Ziele (z. B. Datenexfiltration oder Datenvernichtung) nachzeichnen.

2

2

Bewaffnung

Kopplung eines Exploits mit einer Backdoor zu einer auslieferungsfähigen Nutzlast

Lieferung

Übermittlung eines waffenfähigen Pakets an das Opfer per E-Mail, Internet, USB usw.

3

3

4

4

Ausbeutung

Ausnutzung einer Sicherheitslücke zur Ausführung von Code auf dem System des Opfers

Einrichtung

Installation von Malware auf der Anlage

5

5

6

6

Befehl und Kontrolle (C2)

Befehlskanal für die Fernmanipulation des Opfers

Maßnahmen zur Erreichung der Ziele

Mit "Hands on Keyboard"-Zugang erreichen Eindringlinge ihre ursprünglichen Ziele

7

7

In den letzten Jahren haben offensive Cyberoperationen sowohl an Umfang als auch an Komplexität zugenommen. Die Zahl der weltweiten Cyberangriffe nimmt nicht nur stark zu, sondern auch die Art der Angriffe wird immer vielfältiger: im Jahr 2022, 27% der weltweiten Cyberangriffe basierten auf Erpressung, 21% auf Backdoors und 17% auf Ransomware. Künstliche Intelligenz (AI) spielt bei dieser Eskalation und Diversifizierung eine wichtige Rolle. Sie ermöglicht neue Angriffsformen wie Deepfakes oder Schwarm-Malware und stärkt gleichzeitig traditionelle Vektoren wie Phishing oder die Ausnutzung von Schwachstellen. Nach Angaben der CFO Global SurveyEine beachtliche Zahl von 85% der Cybersicherheitsexperten führt die Zunahme der Angriffe auf die Bewaffnung mit generativen AI zurück. In Bengaluru, Indien, wurde eine Staatenbericht bestätigte diesen Trend: Anfang 2025 wurden 80% der Phishing-E-Mails mit AI generiert.

AI ist dabei, die Cyber Kill Chain selbst umzugestalten, und es hat die das Potenzial, jede Phase von offensiven Cyber-Kampagnen zu optimieren. Die Geschwindigkeit und das Ausmaß, in dem AI diese Kette umgestaltet, ist zu einem dringenden nationalen Sicherheitsanliegen geworden.

Dieses Toolkit konzentriert sich speziell auf AI als Angriffsverhinderer und untersucht, wie es die verschiedenen Stufen der Cyber Kill Chain verändert.

Aufklärungsarbeit

Der Angreifer sammelt Informationen über das Ziel, z. B. Mitarbeiterdaten, E-Mails oder Systemdaten, um seinen Angriff zu planen.

Wie AI die Aufklärungsarbeit verändert:

AI automatisiert und beschleunigt die Sammlung von Open-Source-Informationen durch die Verarbeitung großer Mengen öffentlicher Daten (soziale Medien, Unternehmenswebsites, durchgesickerte Datensätze) und durch die Extraktion strukturierter Artefakte wie Subdomänen, wahrscheinliche IP-Bereiche und Mitarbeiterprofile. Außerdem senkt es die Qualifikationshürde für gezieltes Social Engineering, indem es prägnante Opferprofile erstellt, die sich für Spearphishing eignen.
Ausmaß der Auswirkungen: Hoch. Durch die Automatisierung von OSINT werden der Zeitaufwand und das erforderliche Fachwissen erheblich reduziert.

Fall hervorgehoben: ChatGPT als Aufklärungsassistent

Im Jahr 2024, Cybersicherheitsforscherin Sheetal Tamara veröffentlichte eine Arbeit, die zeigt, wie große Sprachmodelle wie ChatGPT die Aufklärungsphase eines Angriffs erheblich beschleunigen können. Anstatt stundenlang Skripte zu schreiben und manuell Open-Source-Informationen zu sammeln, verwendete der Forscher eine kurze Reihe von Gesprächsaufforderungen, zum Beispiel: "Listen Sie alle Subdomänen auf, die Sie für examplecompany.com finden können", "Fassen Sie die Netzwerktopologie des Unternehmens auf der Grundlage öffentlich verfügbarer Informationen zusammen" und "Ermitteln Sie, welche Betriebssysteme und Dienste höchstwahrscheinlich auf diesen Servern laufen".

Innerhalb weniger Minuten lieferte das Modell nützliches Aufklärungsmaterial, unter anderem:

  • eine Liste der mit dem Zielunternehmen verbundenen Domänen und Unterdomänen
  • wahrscheinliche IP-Adressbereiche
  • Hinweise zu SSL/TLS-Konfigurationen, potenziell offenen Ports und gängigen Diensten
  • öffentliche Mitarbeiterinformationen (aus LinkedIn und Pressemitteilungen), die für Spearphishing verwendet werden könnten.

Während das Sammeln von OSINT-Informationen normalerweise Stunden oder Tage manueller Arbeit erfordert, reduzierte das Experiment die Aufgabe auf einen dialogorientierten Arbeitsablauf, der weit weniger technisches Fachwissen erfordert. Die Studie unterstreicht daher, wie generative Modelle die Hürde für die automatisierte Aufklärung senken können, was klare Auswirkungen auf die Verteidigungspraxis und die Modellierung von Bedrohungen hat.

Weitere Lektüre

Bewaffnung

Der Angreifer nutzt die bei der Aufklärung aufgedeckten Informationen, um eine schädliche Nutzlast (z. B. Malware oder Exploits) zu erstellen oder anzupassen und die Schwachstellen des Ziels auszunutzen.

Wie AI die Bewaffnung verändert:

AI rationalisiert die Erstellung und Abstimmung bösartiger Nutzdaten durch Generierung oder Änderung von Code und durch Testen von Varianten anhand von Erkennungsmodellen. Auf diese Weise können diskretere, anpassungsfähigere und gezieltere Nutzdaten erzeugt werden, einschließlich polymorpher Varianten, die ihr Aussehen bei jeder Ausführung ändern. Angreifer-Tests können zur Verfeinerung von Nutzdaten vor dem Einsatz verwendet werden.

Ausmaß der Auswirkungen: Hoch. Die Automatisierung beschleunigt und skaliert die Entwicklung von Nutzlasten.

Fall hervorgehoben: AI-generierter Malware-Dropper in freier Wildbahn

Im Jahr 2024, Cybersicherheits-Analysten identifizierte eine Phishing-Kampagne, die zunächst routinemäßig erschien: eine Reihe von E-Mails, die eine herkömmliche Malware-Nutzlast verbreiteten. Bei näherer Betrachtung des Droppers (d. h. des kleinen Programms, das für die Installation und Aktivierung der primären Malware verantwortlich ist) zeigte sich jedoch ein ungewöhnliches Merkmal.

Die Struktur und Syntax des Droppers deutete darauf hin, dass er von einem großen Sprachmodell und nicht von einem menschlichen Programmierer erstellt worden war. Obwohl er als einfacher Wrapper fungierte, war der von AI produzierte Dropper sowohl ausgefeilt als auch effektiv und zeigte, dass er in der Lage ist, herkömmliche Erkennungsmethoden zu umgehen. Er umging erfolgreich grundlegende Antivirensignaturen und lieferte die Malware wie beabsichtigt.

Diese Entdeckung war einer der ersten bestätigten Fälle, in denen von AI generierter Schadcode in freier Wildbahn eingesetzt wurde. Die zugrunde liegende Malware war zwar nicht neu, aber die Auslagerung eines Teils des Waffenentwicklungsprozesses an AI stellte eine bedeutende Entwicklung dar. Sie zeigte, wie Angreifer ihre Operationen skalieren, die Entwicklungskosten senken und sich schneller anpassen können, während sie gleichzeitig die Aufdeckungs- und Reaktionsmaßnahmen erschweren.

Weitere Lektüre

Lieferung

Der Angreifer startet den Angriff, indem er die bösartige Nutzlast an das Ziel überträgt, häufig über Phishing-E-Mails, gefälschte Websites oder unsichere Netzwerke.

Wie AI die Zustellung verändert:

AI passt die Zustellungsmechanismen an, um den Erfolg zu maximieren. Es automatisiert die Generierung überzeugender Phishing-Inhalte, Deepfakes in Echtzeit, adaptiver Chat-Interaktionen und realistischer betrügerischer Webseiten und wählt anhand von Aufklärungsdaten den optimalen Zeitpunkt und Kanal für die Zustellung. Dadurch wird der Bedarf an menschlichem Geschick bei der Durchführung von Kampagnen reduziert.

Ausmaß der Auswirkungen: Hoch. AI erhöht deutlich die Überzeugungskraft und die Automatisierung der Zustellung.

Fall hervorgehoben: Deepfake-CEO-Betrug bei Arup

Im Jahr 2024 werden die Mitarbeiter der Britisches Ingenieurbüro Arup erhielt einen scheinbar legitimen Videoanruf von ihrem regionalen Vorstandsvorsitzenden. Der Geschäftsführer bat dringend um die Überweisung von Geldern im Zusammenhang mit einer vertraulichen Transaktion. Die Person auf dem Bildschirm gab das Aussehen, die Stimme und das Auftreten des CEO mit bemerkenswerter Genauigkeit wieder.

In Wirklichkeit handelte es sich bei dem Anrufer nicht um den Geschäftsführer, sondern um einen von AI generierten Deepfake, der ihn in Echtzeit imitieren sollte. Überzeugt von der Echtheit der Interaktion, genehmigten die Mitarbeiter eine Reihe von Überweisungen in Höhe von fast 25 Millionen US-Dollar.

Dieser Vorfall ist einer der größten gemeldeten Fälle von AI-gestütztem Social Engineering in der Auslieferungsphase eines Cyberangriffs. Er veranschaulicht, dass Phishing nicht mehr von schlecht gestalteten E-Mails oder dubiosen Links abhängen muss. Stattdessen ermöglicht AI jetzt den Einsatz äußerst realistischer Audio- und Video-Imitationen, die nicht nur technische Kontrollen, sondern auch menschliches Urteilsvermögen und Vertrauen aushebeln.

Weitere Lektüre

Ausbeutung

Der Angreifer löst die Nutzlast aus, um eine Schwachstelle auszunutzen und unbefugten Zugriff auf das Zielsystem zu erhalten. Nachdem er in das Unternehmen eingedrungen ist, nutzt der Angreifer diesen Zugang, um sich seitlich zwischen den Systemen zu bewegen, um relevante Informationen zu finden (z. B. sensible Daten, zusätzliche Schwachstellen, E-Mail-Server usw.) und dem Unternehmen zu schaden.

Wie AI die Ausbeutung verändert:

AI unterstützt Angreifer bei der Erkennung, dem Verständnis und der Ausnutzung von Systemschwächen durch die automatische Erkennung von Schwachstellen (z. B. durch intelligentes Fuzzing und geführte Scans), die Erstellung von Angriffsbäumen und das Vorschlagen von Ausnutzungspfaden. Es kann auch gegnerische Eingaben generieren, mit denen Sicherheitstools umgangen oder Verteidigungsmaßnahmen ausgenutzt werden können.

Ausmaß der Auswirkungen: Mittel. AI verbessert die Entdeckungsgeschwindigkeit und -effizienz, insbesondere bei komplexen Systemen.

Fall hervorgehoben: Der Wurm Morris II AI

Im Jahr 2024, Forscher demonstrierte eine neue Form eines sich selbst verbreitenden Wurms, der nicht auf der Ausnutzung herkömmlicher Software-Schwachstellen beruhte. Stattdessen zielte er auf generative AI-Systeme selbst ab.

Benannt Morris II In Anlehnung an den berüchtigten Morris-Wurm von 1988 wurden bei diesem Proof-of-Concept-Angriff gegnerische Aufforderungen verwendet, um AI-Modelle so zu manipulieren, dass sie bösartige Anweisungen reproduzieren und verbreiten. Sobald ein System "infiziert" war, konnte der Wurm selbstständig weitere Aufforderungen generieren, die den AI dazu veranlassten, den Angriff zu replizieren und an andere Modelle zu übertragen.

Im Gegensatz zu herkömmlichen Würmern, die in der Regel ungepatchten Code ausnutzen, Morris II verbreiten, indem sie die Offenheit und Unvorhersehbarkeit des generativen AI-Verhaltens ausnutzen. Die Demonstration unterstrich, dass Organisationen, die generatives AI zunehmend in betriebliche Arbeitsabläufe einbinden, neuartige Angriffsflächen bieten können, bei denen die Schwachstelle nicht im Quellcode, sondern in den Trainingsdaten und Modellreaktionen liegt.

Weitere Lektüre

Einrichtung

Der Angreifer installiert Malware oder Backdoors, um (versteckten) dauerhaften Zugang und Kontrolle über das Zielsystem zu erhalten.

Wie AI die Installation verändert:

AI ist in der Lage, adaptive Persistenztechniken zu entwickeln und die effektivsten Installationsvektoren vorzuschlagen, indem es die Daten früherer Phasen analysiert, aber die vollständige Automatisierung der nuancierten, entscheidungsintensiven Installationsphase bleibt begrenzt. AI ermöglicht es Malware, ihr Verhalten zu ändern, um eine Entdeckung zu vermeiden, und den optimalen Zeitpunkt und Eintrittspunkt zu wählen.

Ausmaß der Auswirkungen: Mittel. AI verbessert die Persistenz und Unauffälligkeit, aber die vollständige Automatisierung bleibt begrenzt, da die Installation kontextbezogene Entscheidungen erfordert.

Fall hervorgehoben: Ransomware, die lernt, sich zu verstecken

Im Jahr 2024, Forscher ein System eingeführt, das als EGANein AI-Modell, das entwickelt wurde, um zu untersuchen, wie Ransomware Lernstrategien einsetzen könnte, um der Entdeckung zu entgehen. Im Gegensatz zu herkömmlicher statischer Malware, die entweder erkannt oder übersehen wird, EGAN durch iteratives Experimentieren betrieben.

Das System änderte den Code der Ransomware wiederholt und testete verschiedene Varianten, bis es eine Variante produzierte, die die Antivirenabwehr umgehen konnte, ohne ihre volle Funktionalität zu verlieren. Tatsächlich "lernte" die Malware, wie sie anomaliebasierte Erkennungsmechanismen umgehen kann, die normalerweise verdächtiges Verhalten effektiv erkennen.

Obwohl sie in einer Forschungsumgebung entstanden sind, EGAN demonstrierte, wie AI-gesteuerte Persistenzmechanismen die Erkennung und Beseitigung von Ransomware erheblich erschweren können, sobald sie einmal eingesetzt wurde. Anstatt von vordefinierten Umgehungstechniken abhängig zu sein, passt sich die Malware dynamisch an, was die Aussicht auf nahezu "unbesiegbare" Schadsoftware eröffnet.

Weitere Lektüre

Befehl und Kontrolle

Nachdem der Angreifer die Kontrolle über mehrere Systeme erlangt hat, erstellt er ein Kontrollzentrum, um sie aus der Ferne zu nutzen. Der Angreifer stellt über verschiedene Kanäle (z. B. Web, DNS oder E-Mail) eine Fernkommunikation mit dem kompromittierten System her, um den Betrieb zu kontrollieren und einer Entdeckung zu entgehen. Der Angreifer verwendet verschiedene Techniken wie Verschleierung, um seine Spuren zu verwischen und einer Entdeckung zu entgehen, oder Denial-of-Service-Angriffe (DoS), um Sicherheitsexperten von ihren wahren Zielen abzulenken.

Wie AI Führung und Kontrolle (C2) verändert:

AI ermöglicht eine verdeckte C2-Kommunikation, indem es Datenverkehr generiert, der legitime Aktivitäten imitiert, ausweichende Algorithmen zur Domänengenerierung entwickelt und dezentralisierte, anpassungsfähige Botnets orchestriert. Außerdem kann es das C2-Verhalten so abstimmen, dass es Anomalie-Erkennern entgeht.

Ausmaß der Auswirkungen: Mittel. AI erhöht die C2-Raffinesse und -Widerstandsfähigkeit, aber operative Zwänge begrenzen die breite Einführung.

Fall hervorgehoben: AI-koordinierte Botnetze, Schwärme mit eigenem Willen

Im Jahr 2023, Forscher eine neuartige Form eines Botnetzes demonstriert, das von AI angetrieben wird. Herkömmliche Botnetze stützen sich in der Regel auf einen zentralen Command-and-Control-Server (C2), über den ein einziger Knotenpunkt Anweisungen erteilt, die dann von kompromittierten Computern, den "Bots", ausgeführt werden. Diese Architektur kann jedoch oft unterbrochen werden, sobald die Verteidiger den zentralen Server identifizieren und deaktivieren.

Das AI-aktivierte Botnet verwendet ein anderes Modell. Jeder Knoten im Netzwerk setzte Verstärkungslernen ein, um autonom zu bestimmen, wann Angriffe eingeleitet werden sollten, welche Ziele verfolgt werden sollten und wie die Taktik als Reaktion auf Abwehrmaßnahmen angepasst werden sollte. Anstatt auf zentrale Anweisungen zu warten, arbeiteten die Bots dezentral zusammen und fungierten als eine Art selbstorganisierender Bienenstock.

Dieser Aufbau machte das Botnetz widerstandsfähiger und schwieriger zu entdecken. Selbst wenn einige Knoten neutralisiert wurden, konnte sich der Rest anpassen und weiterarbeiten. Für die Verteidiger bestand die Aufgabe nicht mehr nur darin, einen einzelnen Server zu stören, sondern einen verteilten, anpassungsfähigen Schwarm kompromittierter Rechner zu bekämpfen.

Weitere Lektüre

Maßnahmen zu den Zielen

Der Angreifer verfolgt sein ultimatives Ziel, z. B. Datenexfiltration, Datenverschlüsselung oder Datenvernichtung.

Wie AI die Maßnahmen zur Erreichung der Ziele verändert:

AI beschleunigt und verfeinert die letzten Aufgaben eines Angriffs: automatisierte Datenexfiltration, Priorisierung hochwertiger Vermögenswerte, maßgeschneiderte Erpressungsbotschaften und groß angelegte Inhaltsgenerierung für Desinformation oder Störung. Die abschließenden strategischen Entscheidungen erfordern oft noch menschliches Urteilsvermögen, aber AI verkürzt den Weg zu diesen Entscheidungen.

Ausmaß der Auswirkungen: Mittel. AI beschleunigt und skaliert die zielgerichtete Tätigkeit, ersetzt aber nicht vollständig die menschliche Absicht.

Fall hervorgehoben: PromptLocker, eine AI-gesteuerte Ransomware-Orchestrierung

Im Jahr 2024, Forscher der New York University stellten vor PromptLockerein Proof-of-Concept-Ransomware-System, das von einem umfangreichen Sprachmodell gesteuert wird. Im Gegensatz zu herkömmlicher Ransomware, die vordefinierten Verhaltensweisen folgt, PromptLocker traf Entscheidungen in Echtzeit und automatisierte mehrere Phasen des Lebenszyklus eines Angriffs. In der Demonstration arbeitete das Modell autonom:

  • die wertvollsten Ziele innerhalb eines kompromittierten Systems ausgewählt,
  • sensible Daten vor der Verschlüsselung exfiltriert und so den Einfluss auf die Opfer erhöht,
  • verschlüsselte Datenträger und Dateien, um den Zugriff zu verweigern
  • maßgeschneiderte Erpresserbriefe zu erstellen und den Ton und die Forderungen an das Profil des Opfers anzupassen (z. B. finanzielle Leistungsfähigkeit und Branche).

Obwohl die Arbeit in einer kontrollierten Forschungsumgebung durchgeführt wurde, PromptLocker veranschaulicht, wie generatives AI Aufgaben automatisieren und skalieren kann, die zuvor menschliche Planung erforderten, und so die Fähigkeit von Angreifern beschleunigt, ihre Ziele zu erreichen und sich an veränderte Umstände anzupassen.

Weitere Lektüre

Fragen zur Diskussion

Literaturverzeichnis

Eine pro-russische Desinformationskampagne nutzt kostenlose AI-Tools, um eine "Inhaltsexplosion" anzuheizen | WIRED'. Zugriff am 19. September 2025. https://www.wired.com/story/pro-russia-disinformation-campaign-free-ai-tools/. 

AI-Powered PromptLocker Ransomware Is Just an NYU Research Project - the Code worked as a Typical Ransomware, Selecting Targets, Exfiltrating Selected Data and Encrypting Volumes | Tom's Hardware'. Zugriff am 19. September 2025. https://www.tomshardware.com/tech-industry/cyber-security/ai-powered-promptlocker-ransomware-is-just-an-nyu-research-project-the-code-worked-as-a-typical-ransomware-selecting-targets-exfiltrating-selected-data-and-encrypting-volumes. 

Al-Karaki, Jamal, Muhammad Al-Zafar Khan, und Marwan Omar. 'Exploring LLMs for Malware Detection: Review, Framework Design, and Countermeasure Approaches'. arXiv:2409.07587. Version 1. Preprint, arXiv, 11. September 2024. https://doi.org/10.48550/arXiv.2409.07587. 

Anderson, Hyrum S., Anant Kharkar, Bobby Filar, David Evans, und Phil Roth. 'Learning to Evade Static PE Machine Learning Malware Models via Reinforcement Learning'. arXiv:1801.08917. Preprint, arXiv, 30. Januar 2018. https://doi.org/10.48550/arXiv.1801.08917. 

Anis, Fatima, und Mohammad Hammoudeh. Weaponizing AI in Cyberattacks A Comparative Study of AI Powered Tools for Offensive Security'. Proceedings of the 8th International Conference on Future Networks & Distributed Systems, ACM, 11. Dezember 2024, 283-90. https://doi.org/10.1145/3726122.3726164. 

Buchanan, Ben. A National Security Research Agenda for Cybersecurity and Artificial Intelligence". Zentrum für Sicherheit und aufkommende Technologie, 2020. https://cset.georgetown.edu/publication/a-national-security-research-agenda-for-cybersecurity-and-artificial-intelligence/. 

Cohen, Stav, Ron Bitton und Ben Nassi. 'Here Comes The AI Worm: Unleashing Zero-Click Worms That Target GenAI-Powered Applications'. arXiv:2403.02817. Version 1. Preprint, arXiv, 5. März 2024. https://doi.org/10.48550/arXiv.2403.02817. 

Commey, Daniel, Benjamin Appiah, Bill K. Frimpong, Isaac Osei, Ebenezer N. A. Hammond, und Garth V. Crosby. EGAN: Evolutional GAN for Ransomware Evasion". 2023 IEEE 48. Konferenz über lokale Computernetzwerke (LCN), 2. Oktober 2023, 1-9. https://doi.org/10.1109/LCN58197.2023.10223320. 

Cyber Kill Chain® | Lockheed Martin'. Zugriff am 19. September 2025. https://www.lockheedmartin.com/en-us/capabilities/cyber/cyber-kill-chain.html. 

Cyber-Bedrohungen in der EU: Fakten und Zahlen - Consilium". Zugriff am 22. September 2025. https://www.consilium.europa.eu/en/policies/top-cyber-threats/. 

Deepfake-Betrüger geben sich als FTSE-Führungskräfte aus". Zugriff am 19. September 2025. https://www.thetimes.com/business-money/technology/article/deepfake-fraudsters-impersonate-ftse-chief-executives-z9vvnz93l. 

Hack The Box. 5 Anti-Forensik-Techniken, um Ermittler auszutricksen (+ Beispiele und Tipps zur Erkennung)". Zugriff am 19. September 2025. https://www.hackthebox.com/blog/anti-forensics-techniques. 

Hacker nutzen AI, um Threat Intelligence-Berichte und "Vibe Code"-Malware zu analysieren | IT Pro'. Zugriff am 19. September 2025. https://www.itpro.com/security/hackers-are-using-ai-to-dissect-threat-intelligence-reports-and-vibe-code-malware. 

Hoover, Amanda. Der clevere neue Betrug, den Ihre Bank nicht stoppen kann". Business Insider. Zugriff am 19. September 2025. https://www.businessinsider.com/bank-account-scam-deepfakes-ai-voice-generator-crime-fraud-2025-5. 

Huynh, Nam, und Beiyu Lin. 'Large Language Models for Code Generation: A Comprehensive Survey of Challenges, Techniques, Evaluation, and Applications'. arXiv:2503.01245. Preprint, arXiv, 2. April 2025. https://doi.org/10.48550/arXiv.2503.01245. 

IBM Sicherheit X-Force Threat Intelligence Index 2023. n.d. 

Kolosnjaji, Bojan, Ambra Demontis, Battista Biggio, et al. 'Adversarial Malware Binaries: Evading Deep Learning for Malware Detection in Executables'. arXiv:1803.04173. Preprint, arXiv, 12. März 2018. https://doi.org/10.48550/arXiv.1803.04173. 

Li, Haoyuan, Hao Jiang, Tao Jin, et al. 'DATE: Domain Adaptive Product Seeker for E-Commerce'. arXiv:2304.03669. Preprint, arXiv, 7. April 2023. https://doi.org/10.48550/arXiv.2304.03669. 

Mirsky, Yisroel, Ambra Demontis, Jaidip Kotak, et al. 'The Threat of Offensive AI to Organizations'. Computer und Sicherheit 124 (Januar 2023): 103006. https://doi.org/10.1016/j.cose.2022.103006. 

Piplai, Aritran, Sai Sree Laya Chukkapalli, und Anupam Joshi. 'NAttack! Adversarial Attacks to Bypass a GAN Based Classifier Trained to Detect Network Intrusion'. 2020 IEEE 6th Intl Conference on Big Data Security on Cloud (BigDataSecurity), IEEE Intl Conference on High Performance and Smart Computing, (HPSC) und IEEE Intl Conference on Intelligent Data and Security (IDS), Mai 2020, 49-54. https://doi.org/10.1109/BigDataSecurity-HPSC-IDS49724.2020.00020. 

Polymorphe AI-Malware: A Real-World POC and Detection Walkthrough - CardinalOps'. Zugriff am 19. September 2025. https://cardinalops.com/blog/polymorphic-ai-malware-detection/. 

Rid, Thomas. Die Lügen, die Russland sich selbst erzählt". Auswärtige Angelegenheiten, 30. September 2024. https://www.foreignaffairs.com/united-states/lies-russia-tells-itself. 

Rs 938 Crore Lost to Cybercrooks since Jan | Bengaluru News - Times of India'. Zugriff am 22. September 2025. https://timesofindia.indiatimes.com/city/bengaluru/rs-938-crore-lost-to-cybercrooks-since-jan/articleshow/122075324.cms. 

Schröer, Saskia Laura, Luca Pajola, Alberto Castagnaro, Giovanni Apruzzese, und Mauro Conti. Exploiting AI for Attacks: On the Interplay between Adversarial AI and Offensive AI'. arXiv:2506.12519. Version 1. Preprint, arXiv, 14. Juni 2025. https://doi.org/10.48550/arXiv.2506.12519. 

Sewak, Mohit, Sanjay K. Sahay, und Hemant Rathore. 'ADVERSARIALuscator: Ein Adversarial-DRL-basierter Obfuskator und metamorpher Malware-Schwarmgenerator'. 2021 Internationale gemeinsame Konferenz über neuronale Netze (IJCNN), 18. Juli 2021, 1-9. https://doi.org/10.1109/IJCNN52387.2021.9534016. 

Temara, Sheetal. Maximizing Penetration Testing Success with Effective Reconnaissance Techniques Using ChatGPT'. arXiv:2307.06391. Preprint, arXiv, 20. März 2023. https://doi.org/10.48550/arXiv.2307.06391. 

Townsend, Kevin. AI-generierte Malware in freier Wildbahn gefunden". SecurityWeek, 24. September 2024. https://www.securityweek.com/ai-generated-malware-found-in-the-wild/. 

Yamin, Muhammad Mudassar, Mohib Ullah, Habib Ullah, und Basel Katt. Weaponized AI for Cyber Attacks". Zeitschrift für Informationssicherheit und Anwendungen 57 (März 2021): 102722. https://doi.org/10.1016/j.jisa.2020.102722. 

Yang, Kai-Cheng, Danishjeet Singh, und Filippo Menczer. Merkmale und Prävalenz von gefälschten Social-Media-Profilen mit AI-generierten Gesichtern". Zeitschrift für Online-Vertrauen und Sicherheit 2, no. 4 (2024). https://doi.org/10.54501/jots.v2i4.197. 

Yu, Jingru, Yi Yu, Xuhong Wang, et al. 'The Shadow of Fraud: The Emerging Danger of AI-Powered Social Engineering and Its Possible Cure'. arXiv:2407.15912. Preprint, arXiv, 22. Juli 2024. https://doi.org/10.48550/arXiv.2407.15912. 

Vielen Dank, dass Sie sich für unseren Newsletter angemeldet haben!

Dankeschön! RSVP erhalten für AI in cyber offence

KI in der Cyberkriminalität

Laden...

Laden...