AI in cyberaanvallen
Hoe AI de Cyber Kill Chain verandert
Offensieve cyberoperaties zijn opzettelijke acties die in cyberspace worden uitgevoerd om vijandige systemen te infiltreren, te verstoren of te vernietigen met het oog op het bereiken van strategische doelstellingen. Ze worden doorgaans gekaderd in de Cyber Kill Chain, een raamwerk dat oorspronkelijk is ontwikkeld door Lockheed Martin. Het raamwerk verdeelt een aanval in een gestructureerde reeks fasen, waarbij de voortgang van een tegenstander wordt gevolgd vanaf de eerste verkenning tot de uiteindelijke acties die worden ondernomen om de doelstellingen te bereiken (bijvoorbeeld het wegsluizen of vernietigen van gegevens).
2
2
Wapening
Koppeling van exploit met achterdeur in leverbare payload
Levering
Het leveren van een wapenbundel aan het slachtoffer via e-mail, internet, USB, enz.
3
3
4
4
Exploitatie
Misbruik maken van een kwetsbaarheid om code uit te voeren op het systeem van het slachtoffer
Installatie
Malware installeren op het apparaat
5
5
6
6
Command & Control (C2)
Commando-kanaal voor het op afstand manipuleren van het slachtoffer
Acties met betrekking tot doelstellingen
Met ‘Hands on Keyboard’-toegang bereiken indringers hun oorspronkelijke doelstellingen.
7
7
De afgelopen jaren zijn offensieve cyberoperaties zowel in omvang als in complexiteit toegenomen. Wereldwijde cyberaanvallen nemen niet alleen sterk toe, maar worden ook steeds diverser van aard.: in 2022, 271 TP5T van de wereldwijde cyberaanvallen waren gebaseerd op afpersing, 211 TP5T betrof backdoors en 171 TP5T ransomware.. Kunstmatige intelligentie (AI) speelt een belangrijke rol in deze escalatie en diversificatie, waardoor nieuwe vormen van aanvallen mogelijk worden, zoals deepfakes of swarm-malware, terwijl traditionele vectoren zoals phishing of het misbruik van kwetsbaarheden worden versterkt. Volgens de Wereldwijde enquête onder CFO's, Een opvallende 85% van cybersecurityprofessionals schrijft de toename van aanvallen toe aan het gebruik van generatieve AI als wapen. In Bengaluru, India, een staatsrapport bevestigde deze trend: begin 2025 werd 80% aan phishing-e-mails gegenereerd door AI.
AI transformeert de Cyber Kill Chain zelf en heeft de potentieel om elke fase van offensieve cybercampagnes een boost te geven. De snelheid en omvang waarmee AI deze keten hervormt, is een urgente nationale veiligheidskwestie geworden.
Deze toolkit richt zich specifiek op AI als een aanvalsmiddel en onderzoekt hoe het de verschillende fasen van de Cyber Kill Chain transformeert.
Verkenning
De aanvaller verzamelt informatie over het doelwit, zoals gegevens van werknemers, e-mails of systeemgegevens, om zijn aanval te plannen.
Hoe AI verkenning verandert:
Uitgelicht geval: ChatGPT als verkenningsassistent
In 2024, cybersecurity-onderzoeker Sheetal Tamara publiceerde een artikel waarin werd aangetoond hoe grote taalmodellen zoals ChatGPT de verkenningsfase van een aanval aanzienlijk kunnen versnellen. In plaats van urenlang scripts te schrijven en handmatig openbare informatie te verzamelen, gebruikte de onderzoeker een korte reeks conversatieprompts, bijvoorbeeld: “Maak een lijst van alle subdomeinen die je kunt vinden voor examplecompany.com”, “Vat de netwerktopologie van het bedrijf samen op basis van openbaar beschikbare informatie” en “Identificeer welke besturingssystemen en diensten waarschijnlijk op deze servers draaien”.”
Binnen enkele minuten leverde het model bruikbaar verkenningsmateriaal op, waaronder:
- een lijst van domeinen en subdomeinen die verband houden met het doelbedrijf
- waarschijnlijke IP-adresbereiken
- opmerkingen over SSL/TLS-configuraties, mogelijke open poorten en veelgebruikte diensten
- informatie over ambtenaren (afkomstig van LinkedIn en persberichten) die gebruikt zou kunnen worden voor spear-phishing.
Waar het verzamelen van OSINT normaal gesproken uren of dagen handmatig werk zou vergen, werd deze taak in het experiment teruggebracht tot een conversatiegestuurde workflow die veel minder technische expertise vereiste. Het onderzoek onderstreept daarmee hoe generatieve modellen de drempel voor geautomatiseerde verkenning kunnen verlagen, met duidelijke implicaties voor defensieve praktijken en dreigingsmodellering.
-
Geautomatiseerde scantools - "Het gebruik van AI als wapen bij cyberaanvallen Een vergelijkende studie van door AI aangedreven tools voor offensieve beveiliging" (Annis & Hamoudeh 2025)
De vergelijkende studie laat zien hoe geautomatiseerde tools (bijvoorbeeld WebCopilot, Sublist3r, RustScan+Nmap) het scannen van netwerken en het inventariseren van subdomeinen versnellen. De resultaten laten zien hoe AI offensieve taken, zoals het simuleren van aanvalsscenario's en het dynamisch aanpassen aan verdedigingsmaatregelen, verder kan automatiseren, waardoor de weg wordt vrijgemaakt voor volledig geautomatiseerde offensieve beveiligingsoperaties. -
AI-tools voor verkenning - "De dreiging van offensief AI voor organisaties" (Mirsky et al. 2023)
Het onderzoek belicht 32 aanvallende AI-tools die gebruikmaken van deep learning, reinforcement learning en NLP om het detecteren van toegangspunten, het opbouwen van persona's en het selecteren van doelwitten te automatiseren. Deze tools verbeteren OSINT, maken realistische deepfakes voor phishing mogelijk en stellen zelfs onervaren aanvallers in staat om meer impactvolle campagnes te plannen en te lanceren. -
Informatievergaring en automatische exploitatie - "Wapengeschikt AI voor cyberaanvallen" (Yamin et al. 2021)
Het onderzoek bestudeert recente cyberaanvallen waarbij gebruik werd gemaakt van AI-gebaseerde technieken en identificeert relevante mitigatiestrategieën. Het belicht verschillende AI-tools (bijv. GyoiThon, Deep Exploit) die kunnen helpen bij het verzamelen van gegevens over het systeem, mogelijke doelwitten en verdedigingsmaatregelen.
Wapening
De aanvaller gebruikt de informatie die tijdens de verkenning is verzameld om een kwaadaardige payload (bijvoorbeeld malware of exploits) te bouwen of aan te passen en de zwakke punten van het doelwit te misbruiken.
Hoe AI het gebruik van wapens verandert:
AI stroomlijnt het creëren en afstemmen van kwaadaardige payloads door code te genereren of aan te passen en door varianten te testen tegen detectiemodellen. Dit kan leiden tot meer discrete, adaptieve en gerichte payloads, waaronder polymorfe varianten die bij elke uitvoering van uiterlijk veranderen. Adversarial testing kan worden gebruikt om payloads te verfijnen voordat ze worden ingezet.
Uitgelichte zaak: door AI gegenereerde malware-dropper in het wild
In 2024, cyberbeveiligingsanalisten ontdekte een phishingcampagne die aanvankelijk routineus leek: een reeks e-mails waarin conventionele malware werd verspreid. Bij nader onderzoek van de dropper (het kleine programma dat verantwoordelijk is voor het installeren en activeren van de primaire malware) kwam echter een ongebruikelijke eigenschap aan het licht.
De structuur en syntaxis van de dropper wezen erop dat deze was gegenereerd door een groot taalmodel en niet door een menselijke programmeur. Hoewel het functioneerde als een eenvoudige wrapper, was de door AI geproduceerde dropper zowel gepolijst als effectief en toonde het aan dat het in staat was om traditionele detectiemethoden te omzeilen. Het omzeilde met succes de basisantivirussignaturen en leverde de malware af zoals bedoeld.
Deze bevinding was opmerkelijk omdat het een van de eerste bevestigde gevallen was waarin door AI gegenereerde kwaadaardige code in het wild werd ingezet. Hoewel de onderliggende malware niet nieuw was, betekende het uitbesteden van een deel van het wapeningsproces aan AI een belangrijke ontwikkeling. Het toonde aan hoe aanvallers hun operaties konden opschalen, ontwikkelingskosten konden verlagen en zich sneller konden aanpassen, terwijl ze tegelijkertijd de detectie- en responsinspanningen bemoeilijkten.
-
AI-versterkte polymorfe malware - "Polymorfe AI-malware: een praktijkvoorbeeld en detectiehandleiding" (Itkin 2025)
Het artikel stelt een proof-of-concept voor van polymorfe malware op basis van AI die zijn code tijdens runtime dynamisch herschrijft om detectie te omzeilen, gebouwd als een keylogger die bij elke uitvoering verborgen payloads genereert. -
Grote taalmodellen voor het genereren van code - "Grote taalmodellen voor codegeneratie: een uitgebreid overzicht van uitdagingen, technieken, evaluatie en toepassingen" (Huynh & Lin 2025)
Het onderzoek laat zien hoe LLM's (bijvoorbeeld CodeLlama, Copilot) automatisch uitvoerbare code kunnen genereren op basis van natuurlijke taal, waardoor de drempel voor het maken van malware, het ontwikkelen van exploits en het aanpassen van payloads door aanvallers wordt verlaagd. -
AI-gegenereerde nieuwe verduisteringstechnieken - "ADVERSARIALuscator: een op Adversarial-DRL gebaseerde obfuscator en metamorfe malware-swarmgenerator" (Sewak et al. 2021)
Het artikel presenteert ADVERSARIALuscator, een AI die automatisch malwarecode kan herschrijven om vele versies te creëren die er elke keer anders uitzien, om zo detectie door beveiligingssystemen te voorkomen. In tests kon ongeveer een derde van deze varianten geavanceerde beveiligingssystemen omzeilen. -
AI-gedreven "vibe-coding" malware - "Hackers gebruiken AI om dreigingsrapporten te ontleden en malware te 'vibe coderen'" (Kelly 2025)
In dit nieuwsartikel meldden beveiligingsonderzoekers dat hackers generatieve AI gebruiken om dreigingsrapporten te lezen en te interpreteren, waarna ze automatisch werkende malware produceren. Deze techniek, die "vibe-coding" wordt genoemd, vertaalt voor mensen leesbare analyses naar code, waardoor tegenstanders snel openbaar cybersecurityonderzoek kunnen omzetten in exploits.
Levering
De aanvaller lanceert de aanval door de kwaadaardige payload naar het doelwit te verzenden, vaak via phishing-e-mails, valse websites of onveilige netwerken.
Hoe AI de levering verandert:
AI past leveringsmechanismen aan en stemt deze af op het maximale succes. Het automatiseert het genereren van overtuigende phishing-content, realtime deepfakes, adaptieve chatinteracties en realistische frauduleuze webpagina's, en gebruikt verkenningsgegevens om het optimale moment en kanaal voor levering te kiezen. Hierdoor is er minder menselijke vaardigheid nodig bij het uitvoeren van campagnes.
Uitgelichte zaak: Deepfake-CEO-zwendel bij Arup
In 2024 zullen de medewerkers van de Brits ingenieursbureau Arup ontvingen een ogenschijnlijk legitiem videogesprek van hun regionale Chief Executive Officer. De directeur verzocht dringend om een geldoverdracht in verband met een vertrouwelijke transactie. De persoon op het scherm leek qua uiterlijk, stem en gedrag opmerkelijk veel op de CEO.
In werkelijkheid was de beller niet de directeur, maar een deepfake die was gegenereerd via AI, ontworpen om hem in realtime te imiteren. Overtuigd van de authenticiteit van de interactie, gaf het personeel toestemming voor een reeks overschrijvingen ter waarde van bijna 25 miljoen Amerikaanse dollar.
Dit incident is een van de grootste gemelde gevallen van AI-gebaseerde social engineering tijdens de uitvoeringsfase van een cyberaanval. Het illustreert dat phishing niet langer afhankelijk is van slecht opgestelde e-mails of dubieuze links. In plaats daarvan maakt AI het nu mogelijk om zeer realistische audio- en video-imitatie toe te passen, waarmee niet alleen technische controles worden omzeild, maar ook het menselijk oordeel en vertrouwen.
-
LLM's voor social engineering en phishing op grote schaal - "Onderzoek naar LLMs voor malware-detectie: evaluatie, ontwerp van een raamwerk en benaderingen voor tegenmaatregelen" (Al-Karaki & Khan 2024)
Het artikel beschrijft hoe LLMs kunnen worden gebruikt om phishing-content te automatiseren, polymorfe malware te genereren en vijandige inputs te creëren. -
AI-aangedreven social engineering - "De schaduw van fraude: het opkomende gevaar van door AI aangestuurde social engineering en de mogelijke oplossing daarvoor" (Yu et al. 2024)
Het onderzoek laat zien hoe diffusiemodellen en LLM's phishing en identiteitsfraude persoonlijker en overtuigender maken. Het categoriseert AI-gebaseerde social engineering in "3E-fasen" (Enlarging, Enriching, Emerging), waarbij wordt benadrukt hoe aanvallers campagnes kunnen opschalen, nieuwe vectoren kunnen introduceren en nieuwe bedreigingen kunnen exploiteren, waardoor de levering van kwaadaardige payloads effectiever wordt. -
AI-gegenereerde stemfraude / phishing - "Ik heb mijn bank opgelicht" (Hoover 2025)
Een journalistiek experiment dat de door AI gegenereerde deepfake-stem blootlegt die wordt gebruikt om bankrekeningen te hacken.
Exploitatie
De aanvaller activeert de payload om misbruik te maken van een kwetsbaarheid en ongeoorloofde toegang te verkrijgen tot het doelsysteem. Nadat hij de organisatie is binnengedrongen, gebruikt de aanvaller deze toegang om zich lateraal tussen systemen te verplaatsen om relevante informatie te vinden (bijv. gevoelige gegevens, aanvullende kwetsbaarheden, e-mailservers enz.) en de organisatie schade toe te brengen.
Hoe AI uitbuiting verandert:
AI helpt aanvallers bij het identificeren, begrijpen en misbruiken van systeemzwakheden door het automatiseren van het opsporen van kwetsbaarheden (bijvoorbeeld intelligente fuzzing en geleide scans), het construeren van aanvalsbomen en het voorstellen van exploitatiepaden. Het kan ook vijandige inputs genereren die beveiligingstools omzeilen of verdedigingsmechanismen misbruiken.
Uitgelichte zaak: De Morris II AI-worm
In 2024, onderzoekers demonstreerde een nieuwe vorm van zichzelf verspreidende worm die niet afhankelijk was van het misbruiken van conventionele softwarekwetsbaarheden. In plaats daarvan richtte deze zich op generatieve AI-systemen zelf.
Genoemd Morris II Net als bij de beruchte Morris-worm uit 1988 maakte deze proof-of-concept-aanval gebruik van vijandige prompts om AI-modellen te manipuleren, zodat ze kwaadaardige instructies reproduceerden en verspreidden. Zodra een systeem was “geïnfecteerd”, kon de worm zelfstandig verdere prompts genereren die de AI ertoe aanzetten de aanval te repliceren en door te geven aan andere modellen.
In tegenstelling tot traditionele wormen, die doorgaans gebruikmaken van niet-gepatchte code, Morris II verspreid door gebruik te maken van de openheid en onvoorspelbaarheid van generatief AI-gedrag. De demonstratie onderstreepte dat naarmate organisaties generatief AI steeds meer integreren in operationele workflows, ze nieuwe aanvalsoppervlakken kunnen blootstellen waarbij de kwetsbaarheid niet in de broncode ligt, maar in de trainingsgegevens en modelreacties.
-
Vijandig en aanvallend AI - "AI gebruiken voor aanvallen: over de wisselwerking tussen vijandige AI en aanvallende AI" (Shröer & Pajola 2025)
De studie beschrijft hoe aanvallers kwetsbaarheden in AI-systemen kunnen misbruiken door middel van vijandige invoer, of AI zelf kunnen inzetten om effectievere aanvallen uit te voeren op traditionele doelwitten, waarbij de dubbele rol van AI als zowel een hulpmiddel als een doelwit bij cyberaanvallen wordt benadrukt. -
Malware-binaries voor vijandige doeleinden - "Adversarial Malware Binaries: Deep learning omzeilen voor malware-detectie in uitvoerbare bestanden" (Kolosnjarski et al. 2018)
De studie toont gradiëntgebaseerde aanvallen die minder dan 1% aan bytes in uitvoerbare bestanden wijzigen terwijl de functionaliteit behouden blijft, waardoor deep learning-malwaredetectoren die zijn getraind op ruwe bytes met succes worden omzeild.
Installatie
De aanvaller installeert malware of backdoors om (verborgen) permanente toegang en controle binnen het doelsysteem te behouden.
Hoe AI de installatie verandert:
AI kan adaptieve persistentietechnieken produceren en de meest effectieve installatievectoren voorstellen door gegevens uit eerdere fasen te analyseren, maar volledige automatisering van de genuanceerde, besluitvormingsintensieve installatiefase blijft beperkt. Wanneer AI wordt toegepast, stelt het malware in staat om gedrag aan te passen om detectie te voorkomen en de optimale timing en toegangspunten te selecteren.
Uitgelicht geval: Ransomware die leert zich te verbergen
In 2024, onderzoekers introduceerde een systeem dat bekend staat als EGAN, een AI-model dat is ontwikkeld om te onderzoeken hoe ransomware leerstrategieën kan gebruiken om detectie te omzeilen. In tegenstelling tot traditionele statische malware, die ofwel wordt geïdentificeerd ofwel over het hoofd wordt gezien, EGAN geëxploiteerd door middel van iteratieve experimenten.
Het systeem wijzigde de ransomwarecode herhaaldelijk en testte opeenvolgende varianten totdat het een variant produceerde die antivirusbeveiligingen kon omzeilen met behoud van volledige functionaliteit. In feite “leerde” de malware hoe het op afwijkingen gebaseerde detectiemechanismen kon omzeilen die normaal gesproken effectief zijn in het identificeren van verdacht gedrag.
Hoewel het binnen een onderzoeksomgeving is gecreëerd, EGAN toonde aan hoe door AI aangestuurde persistentiemechanismen ransomware aanzienlijk moeilijker te detecteren en uit te roeien konden maken zodra deze eenmaal was geïmplementeerd. In plaats van afhankelijk te zijn van vooraf gedefinieerde ontwijkingstechnieken, paste de malware zich dynamisch aan, waardoor het vooruitzicht ontstond van bijna “onvernietigbare” kwaadaardige software.
-
RL-gebaseerde malware-ontwijking - "Leren om statische PE-machine learning-malwaremodellen te omzeilen via reinforcement learning" (Anderson et al. 2018)
Het onderzoek laat zien hoe reinforcement learning-agenten Windows PE-malware iteratief kunnen aanpassen met wijzigingen die de functionaliteit behouden, om zo statische machine learning-malwaredetectoren te omzeilen. Hierdoor wordt een volledig black-box, adaptieve installatie van persistente malware mogelijk.
Bevelvoering en controle
Nadat de aanvaller controle heeft gekregen over meerdere systemen, creëert hij een controlecentrum om deze op afstand te exploiteren. De aanvaller brengt via verschillende kanalen (bijvoorbeeld internet, DNS of e-mail) een communicatieverbinding tot stand met het gecompromitteerde systeem om de activiteiten te controleren en detectie te voorkomen. De aanvaller gebruikt verschillende technieken, zoals verduistering om zijn sporen te verbergen en detectie te voorkomen, of denial-of-service (DoS)-aanvallen om beveiligingsprofessionals af te leiden van zijn ware doelstellingen.
Hoe AI commandovoering en controle (C2) verandert:
AI maakt meer geheime C2-communicatie mogelijk door verkeer te genereren dat legitieme activiteiten nabootst, ontwijkende algoritmen voor domeingeneratie te ontwerpen en gedecentraliseerde, adaptieve botnets te organiseren. Het kan ook het C2-gedrag aanpassen om anomaliedetectoren te omzeilen.
Uitgelicht geval: door AI gecoördineerde botnets, zwermen met een eigen wil
In 2023, onderzoekers demonstreerde een nieuwe vorm van botnet aangedreven door AI. Conventionele botnets zijn doorgaans afhankelijk van een centrale command-and-control (C2)-server, via welke een enkele hub instructies geeft die vervolgens worden uitgevoerd door geïnfecteerde machines, of “bots”. Deze architectuur kan echter vaak worden verstoord zodra verdedigers de centrale server identificeren en uitschakelen.
Het AI-botnet maakte gebruik van een ander model. Elk knooppunt in het netwerk maakte gebruik van reinforcement learning om zelfstandig te bepalen wanneer aanvallen moesten worden uitgevoerd, welke doelen moesten worden aangevallen en hoe de tactiek moest worden aangepast aan verdedigingsmaatregelen. In plaats van te wachten op gecentraliseerde instructies, werkten de bots op een gedecentraliseerde manier samen en functioneerden ze als een soort zelforganiserende bijenkorf.
Dit ontwerp maakte het botnet veerkrachtiger en moeilijker te detecteren. Zelfs als sommige knooppunten werden uitgeschakeld, konden de overige zich aanpassen en blijven functioneren. Voor verdedigers was de taak niet langer beperkt tot het verstoren van één enkele server, maar moesten ze het opnemen tegen een gedistribueerde, adaptieve zwerm van gecompromitteerde machines.
-
AI-gebaseerde logboekmanipulatie en spoorverduistering - "5 anti-forensische technieken om onderzoekers te misleiden (+ voorbeelden en detectietips)" (CyberJunkie 2023)
In rapporten uit 2024-2025 werd beschreven hoe AI kan worden gebruikt om digitale logbestanden te wissen of te wijzigen om aanvallen voor onderzoekers te verbergen, hoewel volledige praktijkvoorbeelden nog steeds zeldzaam zijn. -
Het omzeilen van op GAN gebaseerde netwerkintrusiedetectiesystemen - "NAttack! Vijandige aanvallen om een op GAN gebaseerde classificator te omzeilen die is getraind om netwerkinbraken te detecteren" (Piplai et al. 2020)
Het onderzoek laat zien hoe vijandige aanvallen met succes door GAN-getrainde inbraakdetectiesystemen heen kunnen komen, waardoor aanvallers C2-verkeer kunnen vermommen als normale netwerkactiviteit.
Actie op doelstellingen
De aanvaller voert zijn uiteindelijke doel uit, zoals het stelen van gegevens, het versleutelen van gegevens of het vernietigen van gegevens.
Hoe AI de aanpak van doelstellingen verandert:
AI versnelt en verfijnt de laatste stappen van een aanval: geautomatiseerde gegevensdiefstal, prioritering van waardevolle activa, op maat gemaakte afpersingsberichten en grootschalige contentgeneratie voor desinformatie of verstoring. Voor de uiteindelijke strategische beslissingen is vaak nog steeds menselijk inzicht nodig, maar AI verkort het traject naar die beslissingen.
Uitgelicht geval: PromptLocker, een door AI aangestuurde ransomware-orkestratie
In 2024, onderzoekers van de New York University introduceerden PromptLocker, een proof-of-concept ransomwaresysteem dat wordt aangestuurd door een groot taalmodel. In tegenstelling tot conventionele ransomware, die vooraf gedefinieerd gedrag volgt, PromptLocker beslissingen in realtime nam en meerdere fasen van de aanvalscyclus automatiseerde. In de demonstratie deed het model het volgende op autonome wijze:
- de meest waardevolle doelwitten binnen een gecompromitteerd systeem geselecteerd,
- gevoelige gegevens vóór versleuteling geëxfiltreerd, waardoor de invloed op slachtoffers is toegenomen,
- versleutelde volumes en bestanden om toegang te weigeren
- op maat gemaakte losgeldbriefjes gegenereerd, waarbij de toon en eisen werden aangepast aan het profiel van het slachtoffer (bijvoorbeeld financiële draagkracht en sector).
Hoewel het werk werd uitgevoerd in een gecontroleerde onderzoeksomgeving, PromptLocker illustreerde hoe generatieve AI taken kan automatiseren en opschalen die voorheen menselijke planning vereisten, waardoor aanvallers sneller hun doelstellingen kunnen bereiken en zich kunnen aanpassen aan veranderende omstandigheden.
-
AI-gegenereerde desinformatie op grote schaal - "Een pro-Russische desinformatiecampagne gebruikt gratis AI-tools om een 'explosie van content' te stimuleren" (Gilbert 2025)
Het artikel legt uit hoe de aan Rusland gelieerde campagne Operation Overload (2023-2025) gebruikmaakt van AI-tools om op grote schaal valse afbeeldingen, video's en gekloonde geluidsfragmenten van publieke figuren te produceren. Dit materiaal wordt op grote schaal verspreid via botnetwerken op sociale media om polariserende verhalen te verspreiden. -
AI-gemaakte valse sociale profielen voor versterking - "Kenmerken en prevalentie van valse socialemediaprofielen met door AI gegenereerde gezichten" (Yang et al. 2024)
Het onderzoek bracht meer dan 1400 Twitter-accounts aan het licht die door AI gegenereerde profielfoto's gebruikten en georganiseerd waren in netwerken om oplichting en politiek geladen berichten te stimuleren. Duizenden van dergelijke accounts waren dagelijks actief. -
Door AI gecreëerde valse documenten en nieuwsmedia (psyops) - "De leugens die Rusland zichzelf vertelt De propagandisten van het land richten zich op het Westen, maar misleiden ook het Kremlin" (Rid 2024)
Het artikel legt uit hoe een lopende Doppelgänger-campagne overtuigende namaakversies van legitieme nieuwswebsites heeft gecreëerd en door AI gegenereerde artikelen publiceert om pro-Russische verhalen in het Westen te promoten.
Discussievragen
- Welke stap van de Cyber Kill Chain zal in de toekomst waarschijnlijk het meest worden getransformeerd door AI, en waarom? En in welke fase levert AI momenteel de meest veelbelovende resultaten voor aanvallers? In welke fase lijkt de implementatie van AI minder effectief en veelbelovend?
- Maakt AI het voordeel in cyberspace meer in het voordeel van aanvallers of verdedigers?
- Zal de wijdverbreide toegang tot AI het speelveld voor amateurs gelijk maken, of vooral tegenstanders met veel middelen meer macht geven?
- Hoe verandert het vermogen van AI om de cyber kill chain te automatiseren en te versnellen de aard van cyberaanvallen?
- Zou AI aanvallen zo snel en adaptief kunnen maken dat traditionele verdedigingssystemen overbodig worden?
- Wie draagt de verantwoordelijkheid wanneer AI-modellen worden misbruikt voor cyberaanvallen: ontwikkelaars, implementators of aanvallers?
- Hoe kunnen beleidsmakers offensief AI reguleren zonder innovatie in defensieve of civiele toepassingen te belemmeren?
- Zal AI cyberconflicten in de richting van meer autonome, “machine-tegen-machine”-oorlogsvoering duwen?
- Zou AI het cyber kill chain-model fundamenteel kunnen veranderen in iets niet-lineairs en continu adaptiefs?