AI in cyberaanvallen

Hoe AI de Cyber Kill Chain verandert

Offensieve cyberoperaties zijn opzettelijke acties die in cyberspace worden uitgevoerd om vijandige systemen te infiltreren, te verstoren of te vernietigen met het oog op het bereiken van strategische doelstellingen. Ze worden doorgaans gekaderd in de Cyber Kill Chain, een raamwerk dat oorspronkelijk is ontwikkeld door Lockheed Martin. Het raamwerk verdeelt een aanval in een gestructureerde reeks fasen, waarbij de voortgang van een tegenstander wordt gevolgd vanaf de eerste verkenning tot de uiteindelijke acties die worden ondernomen om de doelstellingen te bereiken (bijvoorbeeld het wegsluizen of vernietigen van gegevens).

2

2

Wapening

Koppeling van exploit met achterdeur in leverbare payload

Levering

Het leveren van een wapenbundel aan het slachtoffer via e-mail, internet, USB, enz.

3

3

4

4

Exploitatie

Misbruik maken van een kwetsbaarheid om code uit te voeren op het systeem van het slachtoffer

Installatie

Malware installeren op het apparaat

5

5

6

6

Command & Control (C2)

Commando-kanaal voor het op afstand manipuleren van het slachtoffer

Acties met betrekking tot doelstellingen

Met ‘Hands on Keyboard’-toegang bereiken indringers hun oorspronkelijke doelstellingen.

7

7

De afgelopen jaren zijn offensieve cyberoperaties zowel in omvang als in complexiteit toegenomen. Wereldwijde cyberaanvallen nemen niet alleen sterk toe, maar worden ook steeds diverser van aard.: in 2022, 271 TP5T van de wereldwijde cyberaanvallen waren gebaseerd op afpersing, 211 TP5T betrof backdoors en 171 TP5T ransomware.. Kunstmatige intelligentie (AI) speelt een belangrijke rol in deze escalatie en diversificatie, waardoor nieuwe vormen van aanvallen mogelijk worden, zoals deepfakes of swarm-malware, terwijl traditionele vectoren zoals phishing of het misbruik van kwetsbaarheden worden versterkt. Volgens de Wereldwijde enquête onder CFO's, Een opvallende 85% van cybersecurityprofessionals schrijft de toename van aanvallen toe aan het gebruik van generatieve AI als wapen. In Bengaluru, India, een staatsrapport bevestigde deze trend: begin 2025 werd 80% aan phishing-e-mails gegenereerd door AI.

AI transformeert de Cyber Kill Chain zelf en heeft de potentieel om elke fase van offensieve cybercampagnes een boost te geven. De snelheid en omvang waarmee AI deze keten hervormt, is een urgente nationale veiligheidskwestie geworden.

Deze toolkit richt zich specifiek op AI als een aanvalsmiddel en onderzoekt hoe het de verschillende fasen van de Cyber Kill Chain transformeert.

Verkenning

De aanvaller verzamelt informatie over het doelwit, zoals gegevens van werknemers, e-mails of systeemgegevens, om zijn aanval te plannen.

Hoe AI verkenning verandert:

AI automatiseert en versnelt het verzamelen van open-source informatie door grote hoeveelheden openbare gegevens (sociale media, bedrijfswebsites, gelekte documenten) te verwerken en gestructureerde artefacten zoals subdomeinen, waarschijnlijke IP-reeksen en werknemersprofielen te extraheren. Het verlaagt ook de vaardigheidsdrempel voor gerichte social engineering door beknopte slachtofferprofielen te produceren die geschikt zijn voor spear-phishing.
Omvang van de impact: groot. Geautomatiseerde OSINT vermindert de benodigde tijd en expertise aanzienlijk.

Uitgelicht geval: ChatGPT als verkenningsassistent

In 2024, cybersecurity-onderzoeker Sheetal Tamara publiceerde een artikel waarin werd aangetoond hoe grote taalmodellen zoals ChatGPT de verkenningsfase van een aanval aanzienlijk kunnen versnellen. In plaats van urenlang scripts te schrijven en handmatig openbare informatie te verzamelen, gebruikte de onderzoeker een korte reeks conversatieprompts, bijvoorbeeld: “Maak een lijst van alle subdomeinen die je kunt vinden voor examplecompany.com”, “Vat de netwerktopologie van het bedrijf samen op basis van openbaar beschikbare informatie” en “Identificeer welke besturingssystemen en diensten waarschijnlijk op deze servers draaien”.”

Binnen enkele minuten leverde het model bruikbaar verkenningsmateriaal op, waaronder:

  • een lijst van domeinen en subdomeinen die verband houden met het doelbedrijf
  • waarschijnlijke IP-adresbereiken
  • opmerkingen over SSL/TLS-configuraties, mogelijke open poorten en veelgebruikte diensten
  • informatie over ambtenaren (afkomstig van LinkedIn en persberichten) die gebruikt zou kunnen worden voor spear-phishing.

Waar het verzamelen van OSINT normaal gesproken uren of dagen handmatig werk zou vergen, werd deze taak in het experiment teruggebracht tot een conversatiegestuurde workflow die veel minder technische expertise vereiste. Het onderzoek onderstreept daarmee hoe generatieve modellen de drempel voor geautomatiseerde verkenning kunnen verlagen, met duidelijke implicaties voor defensieve praktijken en dreigingsmodellering.

Meer lezen

Wapening

De aanvaller gebruikt de informatie die tijdens de verkenning is verzameld om een kwaadaardige payload (bijvoorbeeld malware of exploits) te bouwen of aan te passen en de zwakke punten van het doelwit te misbruiken.

Hoe AI het gebruik van wapens verandert:

AI stroomlijnt het creëren en afstemmen van kwaadaardige payloads door code te genereren of aan te passen en door varianten te testen tegen detectiemodellen. Dit kan leiden tot meer discrete, adaptieve en gerichte payloads, waaronder polymorfe varianten die bij elke uitvoering van uiterlijk veranderen. Adversarial testing kan worden gebruikt om payloads te verfijnen voordat ze worden ingezet.

Omvang van de impact: groot. Automatisering versnelt en schaalt de ontwikkeling van payloads.

Uitgelichte zaak: door AI gegenereerde malware-dropper in het wild

In 2024, cyberbeveiligingsanalisten ontdekte een phishingcampagne die aanvankelijk routineus leek: een reeks e-mails waarin conventionele malware werd verspreid. Bij nader onderzoek van de dropper (het kleine programma dat verantwoordelijk is voor het installeren en activeren van de primaire malware) kwam echter een ongebruikelijke eigenschap aan het licht.

De structuur en syntaxis van de dropper wezen erop dat deze was gegenereerd door een groot taalmodel en niet door een menselijke programmeur. Hoewel het functioneerde als een eenvoudige wrapper, was de door AI geproduceerde dropper zowel gepolijst als effectief en toonde het aan dat het in staat was om traditionele detectiemethoden te omzeilen. Het omzeilde met succes de basisantivirussignaturen en leverde de malware af zoals bedoeld.

Deze bevinding was opmerkelijk omdat het een van de eerste bevestigde gevallen was waarin door AI gegenereerde kwaadaardige code in het wild werd ingezet. Hoewel de onderliggende malware niet nieuw was, betekende het uitbesteden van een deel van het wapeningsproces aan AI een belangrijke ontwikkeling. Het toonde aan hoe aanvallers hun operaties konden opschalen, ontwikkelingskosten konden verlagen en zich sneller konden aanpassen, terwijl ze tegelijkertijd de detectie- en responsinspanningen bemoeilijkten.

Meer lezen

Levering

De aanvaller lanceert de aanval door de kwaadaardige payload naar het doelwit te verzenden, vaak via phishing-e-mails, valse websites of onveilige netwerken.

Hoe AI de levering verandert:

AI past leveringsmechanismen aan en stemt deze af op het maximale succes. Het automatiseert het genereren van overtuigende phishing-content, realtime deepfakes, adaptieve chatinteracties en realistische frauduleuze webpagina's, en gebruikt verkenningsgegevens om het optimale moment en kanaal voor levering te kiezen. Hierdoor is er minder menselijke vaardigheid nodig bij het uitvoeren van campagnes.

Omvang van de impact: groot. AI verhoogt de overtuigingskracht en automatisering van de levering aanzienlijk.

Uitgelichte zaak: Deepfake-CEO-zwendel bij Arup

In 2024 zullen de medewerkers van de Brits ingenieursbureau Arup ontvingen een ogenschijnlijk legitiem videogesprek van hun regionale Chief Executive Officer. De directeur verzocht dringend om een geldoverdracht in verband met een vertrouwelijke transactie. De persoon op het scherm leek qua uiterlijk, stem en gedrag opmerkelijk veel op de CEO.

In werkelijkheid was de beller niet de directeur, maar een deepfake die was gegenereerd via AI, ontworpen om hem in realtime te imiteren. Overtuigd van de authenticiteit van de interactie, gaf het personeel toestemming voor een reeks overschrijvingen ter waarde van bijna 25 miljoen Amerikaanse dollar.

Dit incident is een van de grootste gemelde gevallen van AI-gebaseerde social engineering tijdens de uitvoeringsfase van een cyberaanval. Het illustreert dat phishing niet langer afhankelijk is van slecht opgestelde e-mails of dubieuze links. In plaats daarvan maakt AI het nu mogelijk om zeer realistische audio- en video-imitatie toe te passen, waarmee niet alleen technische controles worden omzeild, maar ook het menselijk oordeel en vertrouwen.

Meer lezen

Exploitatie

De aanvaller activeert de payload om misbruik te maken van een kwetsbaarheid en ongeoorloofde toegang te verkrijgen tot het doelsysteem. Nadat hij de organisatie is binnengedrongen, gebruikt de aanvaller deze toegang om zich lateraal tussen systemen te verplaatsen om relevante informatie te vinden (bijv. gevoelige gegevens, aanvullende kwetsbaarheden, e-mailservers enz.) en de organisatie schade toe te brengen.

Hoe AI uitbuiting verandert:

AI helpt aanvallers bij het identificeren, begrijpen en misbruiken van systeemzwakheden door het automatiseren van het opsporen van kwetsbaarheden (bijvoorbeeld intelligente fuzzing en geleide scans), het construeren van aanvalsbomen en het voorstellen van exploitatiepaden. Het kan ook vijandige inputs genereren die beveiligingstools omzeilen of verdedigingsmechanismen misbruiken.

Omvang van de impact: Gemiddeld. AI verbetert de snelheid en effectiviteit van detectie, met name bij complexe systemen.

Uitgelichte zaak: De Morris II AI-worm

In 2024, onderzoekers demonstreerde een nieuwe vorm van zichzelf verspreidende worm die niet afhankelijk was van het misbruiken van conventionele softwarekwetsbaarheden. In plaats daarvan richtte deze zich op generatieve AI-systemen zelf.

Genoemd Morris II Net als bij de beruchte Morris-worm uit 1988 maakte deze proof-of-concept-aanval gebruik van vijandige prompts om AI-modellen te manipuleren, zodat ze kwaadaardige instructies reproduceerden en verspreidden. Zodra een systeem was “geïnfecteerd”, kon de worm zelfstandig verdere prompts genereren die de AI ertoe aanzetten de aanval te repliceren en door te geven aan andere modellen.

In tegenstelling tot traditionele wormen, die doorgaans gebruikmaken van niet-gepatchte code, Morris II verspreid door gebruik te maken van de openheid en onvoorspelbaarheid van generatief AI-gedrag. De demonstratie onderstreepte dat naarmate organisaties generatief AI steeds meer integreren in operationele workflows, ze nieuwe aanvalsoppervlakken kunnen blootstellen waarbij de kwetsbaarheid niet in de broncode ligt, maar in de trainingsgegevens en modelreacties.

Meer lezen

Installatie

De aanvaller installeert malware of backdoors om (verborgen) permanente toegang en controle binnen het doelsysteem te behouden.

Hoe AI de installatie verandert:

AI kan adaptieve persistentietechnieken produceren en de meest effectieve installatievectoren voorstellen door gegevens uit eerdere fasen te analyseren, maar volledige automatisering van de genuanceerde, besluitvormingsintensieve installatiefase blijft beperkt. Wanneer AI wordt toegepast, stelt het malware in staat om gedrag aan te passen om detectie te voorkomen en de optimale timing en toegangspunten te selecteren.

Omvang van de impact: gemiddeld. AI verbetert de persistentie en heimelijkheid, maar volledige automatisering blijft beperkt omdat de installatie contextuele beslissingen vereist.

Uitgelicht geval: Ransomware die leert zich te verbergen

In 2024, onderzoekers introduceerde een systeem dat bekend staat als EGAN, een AI-model dat is ontwikkeld om te onderzoeken hoe ransomware leerstrategieën kan gebruiken om detectie te omzeilen. In tegenstelling tot traditionele statische malware, die ofwel wordt geïdentificeerd ofwel over het hoofd wordt gezien, EGAN geëxploiteerd door middel van iteratieve experimenten.

Het systeem wijzigde de ransomwarecode herhaaldelijk en testte opeenvolgende varianten totdat het een variant produceerde die antivirusbeveiligingen kon omzeilen met behoud van volledige functionaliteit. In feite “leerde” de malware hoe het op afwijkingen gebaseerde detectiemechanismen kon omzeilen die normaal gesproken effectief zijn in het identificeren van verdacht gedrag.

Hoewel het binnen een onderzoeksomgeving is gecreëerd, EGAN toonde aan hoe door AI aangestuurde persistentiemechanismen ransomware aanzienlijk moeilijker te detecteren en uit te roeien konden maken zodra deze eenmaal was geïmplementeerd. In plaats van afhankelijk te zijn van vooraf gedefinieerde ontwijkingstechnieken, paste de malware zich dynamisch aan, waardoor het vooruitzicht ontstond van bijna “onvernietigbare” kwaadaardige software.

Meer lezen

Bevelvoering en controle

Nadat de aanvaller controle heeft gekregen over meerdere systemen, creëert hij een controlecentrum om deze op afstand te exploiteren. De aanvaller brengt via verschillende kanalen (bijvoorbeeld internet, DNS of e-mail) een communicatieverbinding tot stand met het gecompromitteerde systeem om de activiteiten te controleren en detectie te voorkomen. De aanvaller gebruikt verschillende technieken, zoals verduistering om zijn sporen te verbergen en detectie te voorkomen, of denial-of-service (DoS)-aanvallen om beveiligingsprofessionals af te leiden van zijn ware doelstellingen.

Hoe AI commandovoering en controle (C2) verandert:

AI maakt meer geheime C2-communicatie mogelijk door verkeer te genereren dat legitieme activiteiten nabootst, ontwijkende algoritmen voor domeingeneratie te ontwerpen en gedecentraliseerde, adaptieve botnets te organiseren. Het kan ook het C2-gedrag aanpassen om anomaliedetectoren te omzeilen.

Omvang van de impact: gemiddeld. AI verhoogt de C2-geavanceerdheid en veerkracht, maar operationele beperkingen beperken de brede acceptatie.

Uitgelicht geval: door AI gecoördineerde botnets, zwermen met een eigen wil

In 2023, onderzoekers demonstreerde een nieuwe vorm van botnet aangedreven door AI. Conventionele botnets zijn doorgaans afhankelijk van een centrale command-and-control (C2)-server, via welke een enkele hub instructies geeft die vervolgens worden uitgevoerd door geïnfecteerde machines, of “bots”. Deze architectuur kan echter vaak worden verstoord zodra verdedigers de centrale server identificeren en uitschakelen.

Het AI-botnet maakte gebruik van een ander model. Elk knooppunt in het netwerk maakte gebruik van reinforcement learning om zelfstandig te bepalen wanneer aanvallen moesten worden uitgevoerd, welke doelen moesten worden aangevallen en hoe de tactiek moest worden aangepast aan verdedigingsmaatregelen. In plaats van te wachten op gecentraliseerde instructies, werkten de bots op een gedecentraliseerde manier samen en functioneerden ze als een soort zelforganiserende bijenkorf.

Dit ontwerp maakte het botnet veerkrachtiger en moeilijker te detecteren. Zelfs als sommige knooppunten werden uitgeschakeld, konden de overige zich aanpassen en blijven functioneren. Voor verdedigers was de taak niet langer beperkt tot het verstoren van één enkele server, maar moesten ze het opnemen tegen een gedistribueerde, adaptieve zwerm van gecompromitteerde machines.

Meer lezen

Actie op doelstellingen

De aanvaller voert zijn uiteindelijke doel uit, zoals het stelen van gegevens, het versleutelen van gegevens of het vernietigen van gegevens.

Hoe AI de aanpak van doelstellingen verandert:

AI versnelt en verfijnt de laatste stappen van een aanval: geautomatiseerde gegevensdiefstal, prioritering van waardevolle activa, op maat gemaakte afpersingsberichten en grootschalige contentgeneratie voor desinformatie of verstoring. Voor de uiteindelijke strategische beslissingen is vaak nog steeds menselijk inzicht nodig, maar AI verkort het traject naar die beslissingen.

Omvang van de impact: gemiddeld. AI versnelt en schaalt doelgerichte activiteiten, maar vervangt de menselijke intentie niet volledig.

Uitgelicht geval: PromptLocker, een door AI aangestuurde ransomware-orkestratie

In 2024, onderzoekers van de New York University introduceerden PromptLocker, een proof-of-concept ransomwaresysteem dat wordt aangestuurd door een groot taalmodel. In tegenstelling tot conventionele ransomware, die vooraf gedefinieerd gedrag volgt, PromptLocker beslissingen in realtime nam en meerdere fasen van de aanvalscyclus automatiseerde. In de demonstratie deed het model het volgende op autonome wijze:

  • de meest waardevolle doelwitten binnen een gecompromitteerd systeem geselecteerd,
  • gevoelige gegevens vóór versleuteling geëxfiltreerd, waardoor de invloed op slachtoffers is toegenomen,
  • versleutelde volumes en bestanden om toegang te weigeren
  • op maat gemaakte losgeldbriefjes gegenereerd, waarbij de toon en eisen werden aangepast aan het profiel van het slachtoffer (bijvoorbeeld financiële draagkracht en sector).

Hoewel het werk werd uitgevoerd in een gecontroleerde onderzoeksomgeving, PromptLocker illustreerde hoe generatieve AI taken kan automatiseren en opschalen die voorheen menselijke planning vereisten, waardoor aanvallers sneller hun doelstellingen kunnen bereiken en zich kunnen aanpassen aan veranderende omstandigheden.

Meer lezen

Discussievragen

Bibliografie

‘Een pro-Russische desinformatiecampagne gebruikt gratis AI-tools om een “explosie van content” te veroorzaken | WIRED’. Geraadpleegd op 19 september 2025. https://www.wired.com/story/pro-russia-disinformation-campaign-free-ai-tools/. 

‘AI-Powered PromptLocker Ransomware is slechts een onderzoeksproject van de NYU — de code werkte als een typische ransomware, selecteerde doelen, exfiltreerde geselecteerde gegevens en versleutelde volumes | Tom's Hardware’. Geraadpleegd op 19 september 2025. https://www.tomshardware.com/tech-industry/cyber-security/ai-powered-promptlocker-ransomware-is-just-an-nyu-research-project-the-code-worked-as-a-typical-ransomware-selecting-targets-exfiltrating-selected-data-and-encrypting-volumes. 

Al-Karaki, Jamal, Muhammad Al-Zafar Khan en Marwan Omar. ‘Exploring LLMs for Malware Detection: Review, Framework Design, and Countermeasure Approaches’. arXiv:2409.07587. Versie 1. Preprint, arXiv, 11 september 2024. https://doi.org/10.48550/arXiv.2409.07587. 

Anderson, Hyrum S., Anant Kharkar, Bobby Filar, David Evans en Phil Roth. ‘Learning to Evade Static PE Machine Learning Malware Models via Reinforcement Learning’. arXiv:1801.08917. Preprint, arXiv, 30 januari 2018. https://doi.org/10.48550/arXiv.1801.08917. 

Anis, Fatima en Mohammad Hammoudeh. ‘Het gebruik van AI als wapen bij cyberaanvallen: een vergelijkende studie van door AI aangedreven tools voor offensieve beveiliging’. Verslag van de 8e Internationale Conferentie over Toekomstige Netwerken & Gedistribueerde Systemen, ACM, 11 december 2024, 283–90. https://doi.org/10.1145/3726122.3726164. 

Buchanan, Ben. ‘Een nationale veiligheidsagenda voor cyberbeveiliging en kunstmatige intelligentie’. Centrum voor veiligheid en opkomende technologie, 2020. https://cset.georgetown.edu/publication/a-national-security-research-agenda-for-cybersecurity-and-artificial-intelligence/. 

Cohen, Stav, Ron Bitton en Ben Nassi. ‘Here Comes The AI Worm: Unleashing Zero-Click Worms That Target GenAI-Powered Applications’. arXiv:2403.02817. Versie 1. Preprint, arXiv, 5 maart 2024. https://doi.org/10.48550/arXiv.2403.02817. 

Commey, Daniel, Benjamin Appiah, Bill K. Frimpong, Isaac Osei, Ebenezer N. A. Hammond en Garth V. Crosby. ‘EGAN: Evolutional GAN for Ransomware Evasion’. 2023 IEEE 48e conferentie over lokale computernetwerken (LCN), 2 oktober 2023, 1–9. https://doi.org/10.1109/LCN58197.2023.10223320. 

‘Cyber Kill Chain® | Lockheed Martin’. Geraadpleegd op 19 september 2025. https://www.lockheedmartin.com/en-us/capabilities/cyber/cyber-kill-chain.html. 

‘Cyberdreigingen in de EU: feiten en cijfers – Consilium’. Geraadpleegd op 22 september 2025. https://www.consilium.europa.eu/en/policies/top-cyber-threats/. 

‘Deepfake-fraudeurs doen zich voor als CEO's van FTSE’. Geraadpleegd op 19 september 2025. https://www.thetimes.com/business-money/technology/article/deepfake-fraudsters-impersonate-ftse-chief-executives-z9vvnz93l. 

Hack The Box. ‘5 Anti-Forensics Techniques to Trick Investigators (+ Examples & Detection Tips)’. Geraadpleegd op 19 september 2025. https://www.hackthebox.com/blog/anti-forensics-techniques. 

‘Hackers gebruiken AI om dreigingsrapporten en “Vibe Code”-malware te ontleden | IT Pro’. Geraadpleegd op 19 september 2025. https://www.itpro.com/security/hackers-are-using-ai-to-dissect-threat-intelligence-reports-and-vibe-code-malware. 

Hoover, Amanda. ‘The Clever New Scam Your Bank Can’t Stop’. Business Insider. Geraadpleegd op 19 september 2025. https://www.businessinsider.com/bank-account-scam-deepfakes-ai-voice-generator-crime-fraud-2025-5. 

Huynh, Nam en Beiyu Lin. ‘Large Language Models for Code Generation: A Comprehensive Survey of Challenges, Techniques, Evaluation, and Applications’. arXiv:2503.01245. Preprint, arXiv, 2 april 2025. https://doi.org/10.48550/arXiv.2503.01245. 

IBM Security X-Force Threat Intelligence Index 2023. n.d. 

Kolosnjaji, Bojan, Ambra Demontis, Battista Biggio, et al. ‘Adversarial Malware Binaries: Evading Deep Learning for Malware Detection in Executables’. arXiv:1803.04173. Preprint, arXiv, 12 maart 2018. https://doi.org/10.48550/arXiv.1803.04173. 

Li, Haoyuan, Hao Jiang, Tao Jin, et al. ‘DATE: Domain Adaptive Product Seeker for E-Commerce’. arXiv:2304.03669. Preprint, arXiv, 7 april 2023. https://doi.org/10.48550/arXiv.2304.03669. 

Mirsky, Yisroel, Ambra Demontis, Jaidip Kotak, et al. ‘De dreiging van offensieve AI voor organisaties’. Computers & Beveiliging 124 (januari 2023): 103006. https://doi.org/10.1016/j.cose.2022.103006. 

Piplai, Aritran, Sai Sree Laya Chukkapalli en Anupam Joshi. ‘NAttack! Vijandige aanvallen om een op GAN gebaseerde classificator te omzeilen die is getraind om netwerkinbraken te detecteren’. 2020 IEEE 6e internationale conferentie over big data-beveiliging in de cloud (BigDataSecurity), IEEE internationale conferentie over high-performance en smart computing (HPSC) en IEEE internationale conferentie over intelligente data en beveiliging (IDS), mei 2020, 49–54. https://doi.org/10.1109/BigDataSecurity-HPSC-IDS49724.2020.00020. 

‘Polymorfische AI-malware: een praktijkvoorbeeld en detectiehandleiding – CardinalOps’. Geraadpleegd op 19 september 2025. https://cardinalops.com/blog/polymorphic-ai-malware-detection/. 

Rid, Thomas. ‘De leugens die Rusland zichzelf vertelt’. Buitenlandse Zaken, 30 september 2024. https://www.foreignaffairs.com/united-states/lies-russia-tells-itself. 

‘Sinds januari 938 crore roepies verloren aan cybercriminelen | Bengaluru News – Times of India’. Geraadpleegd op 22 september 2025. https://timesofindia.indiatimes.com/city/bengaluru/rs-938-crore-lost-to-cybercrooks-since-jan/articleshow/122075324.cms. 

Schröer, Saskia Laura, Luca Pajola, Alberto Castagnaro, Giovanni Apruzzese en Mauro Conti. ‘Exploiting AI for Attacks: On the Interplay between Adversarial AI and Offensive AI’. arXiv:2506.12519. Versie 1. Preprint, arXiv, 14 juni 2025. https://doi.org/10.48550/arXiv.2506.12519. 

Sewak, Mohit, Sanjay K. Sahay en Hemant Rathore. ‘ADVERSARIALuscator: een op Adversarial-DRL gebaseerde obfuscator en metamorfe malware-zwermgenerator’. Internationale gezamenlijke conferentie over neurale netwerken (IJCNN) 2021, 18 juli 2021, 1–9. https://doi.org/10.1109/IJCNN52387.2021.9534016. 

Temara, Sheetal. ‘Maximizing Penetration Testing Success with Effective Reconnaissance Techniques Using ChatGPT’. arXiv:2307.06391. Preprint, arXiv, 20 maart 2023. https://doi.org/10.48550/arXiv.2307.06391. 

Townsend, Kevin. ‘AI-gegenereerde malware gevonden in het wild’. Beveiligingsweek, 24 september 2024. https://www.securityweek.com/ai-generated-malware-found-in-the-wild/. 

Yamin, Muhammad Mudassar, Mohib Ullah, Habib Ullah en Basel Katt. ‘Weaponized AI for Cyber Attacks’ (AI als wapen voor cyberaanvallen). Tijdschrift voor informatiebeveiliging en toepassingen 57 (maart 2021): 102722. https://doi.org/10.1016/j.jisa.2020.102722. 

Yang, Kai-Cheng, Danishjeet Singh en Filippo Menczer. ‘Kenmerken en prevalentie van valse socialemediaprofielen met door AI gegenereerde gezichten’. Tijdschrift voor online vertrouwen en veiligheid 2, nr. 4 (2024). https://doi.org/10.54501/jots.v2i4.197. 

Yu, Jingru, Yi Yu, Xuhong Wang, et al. ‘The Shadow of Fraud: The Emerging Danger of AI-Powered Social Engineering and Its Possible Cure’. arXiv:2407.15912. Preprint, arXiv, 22 juli 2024. https://doi.org/10.48550/arXiv.2407.15912. 

Bedankt voor uw aanmelding voor onze nieuwsbrief!

Bedankt! RSVP ontvangen voor AI in cyberdelicten

AI in cybercriminaliteit

Bezig met laden...

Bezig met laden...