AI in Cybersecurity Toolkit
Bronnen voor docenten op het gebied van cyberbeveiliging
Inleiding
Kunstmatige intelligentie (AI) verandert het cyberbeveiligingslandschap in hoog tempo, zowel als verdedigingsmiddel als als aanvalswapen. Voor docenten creëert deze dubbele rol een dringende noodzaak om studenten niet alleen voor te bereiden op het gebruik van AI ter bescherming, maar ook om hen te laten begrijpen hoe tegenstanders het kunnen misbruiken bij aanvallen.
Op defensief gebied is AI al geïntegreerd in professionele beveiligingsomgevingen en heeft het invloed op alle verschillende fasen van de levenscyclus van cyberincidenten (bijv. preventie, paraatheid, respons en herstel). Het ondersteunt logboekanalyse, detectie van afwijkingen, onderzoek naar malware en zelfs bewustwordingstraining, waardoor verdedigers sneller, nauwkeuriger en schaalbaarder kunnen werken. In het klaslokaal biedt AI ook nieuwe onderwijsmogelijkheden door beoordelingen te automatiseren, casestudy's te genereren, incidenten uit de praktijk te simuleren en interactieve oefeningen te ontwerpen die studenten helpen om complexe cyberbeveiligingsconcepten effectiever te begrijpen.
Tegelijkertijd stimuleert AI een nieuwe generatie van offensieve cyberoperaties. Kwaadwillende actoren gebruiken generatieve AI als wapen om verkenningen te automatiseren, phishingcampagnes te personaliseren, kwetsbaarheden sneller op te sporen of adaptieve malware in te zetten. Deze transformatie van de cyber kill chain heeft de omvang en de verfijning van aanvallen wereldwijd geïntensiveerd, van ransomware tot deepfakes en swarm-malware. AI is dus zowel een enabler van cyberaanvallen als zelf een doelwit van vijandige exploitatie, waarbij kwetsbaarheden zoals data poisoning en vijandige voorbeelden nieuwe risico's met zich meebrengen.
Deze toolkit is ontwikkeld door Virtual Routes als onderdeel van de Cybersecurity-seminars Programma ondersteund door Google.org, om docenten en studenten te voorzien van bronnen in een voortdurend evoluerend vakgebied. Het is gebaseerd op een enquête onder deelnemende universiteiten en biedt materiaal om inzicht te krijgen in de impact van AI op cyberbeveiliging, waarbij de dubbele rol ervan als zowel defensief als offensief instrument wordt belicht.
Impact van AI op cyberbeveiligingsvaardigheden
De Europees kader voor cyberbeveiligingsvaardigheden (ECSF) definieert twaalf belangrijke professionele cybersecurityfuncties, samen met de taken, vaardigheden, kennis en competenties die in de hele sector nodig zijn. Deze functies variëren van technische taken zoals dreigingsinformatie en penetratietesten tot bredere taken zoals risicobeheer en opleiding. We hebben vijf belangrijke manieren geïdentificeerd waarop AI van invloed is op de vaardigheden en competenties die voor deze functies vereist zijn:
Data-analyse en dreigingsinformatie
LLM's kunnen het verzamelen, correleren en samenvatten van grote hoeveelheden dreigingsrapporten, logboeken en indicatoren van compromittering versnellen. Analisten moeten de bevindingen nog steeds valideren, maar hun focus verschuift van repetitief parseren naar kritische interpretatie.
Incidentdetectie en -respons
AI kan helpen bij het opsporen van afwijkingen, triage en eerste rapportage. Vaardigheden op het gebied van het valideren van waarschuwingen, het in context plaatsen van incidenten en het bepalen van evenredige reacties worden steeds belangrijker.
Risicobeoordeling en naleving
AI kan automatische classificatie van gevoelige gegevens en voorlopige risicoscores ondersteunen. Beoefenaars moeten hun eigen oordeel gebruiken om te beoordelen of de door AI gegenereerde resultaten in overeenstemming zijn met de wettelijke en organisatorische vereisten.
Veilige ontwikkeling en codebeoordeling
AI-compatibele codescanning markeert onveilige patronen en stelt oplossingen voor. Professionals blijven verantwoordelijk voor het waarborgen van veilige coderingspraktijken en voor het beperken van het risico op AI-hallucinaties of valse positieven, aangezien AI ook onveilige code kan genereren.
Onderwijs en bewustwording
LLM's maken het mogelijk om adaptieve trainingsscenario's, synthetische datasets en geautomatiseerde feedback te genereren. De vaardigheden van docenten evolueren in de richting van het op verantwoorde wijze samenstellen, valideren en integreren van AI-bronnen in lesprogramma's.
Kerncompetenties AI voor cyberbeveiliging
De alomtegenwoordige toepassing van AI vereist dat alle cybersecurityprofessionals, ongeacht hun functie, nieuwe vaardigheden ontwikkelen die bijdragen aan een verantwoord, adaptief en effectief gebruik van AI-tools. Deze kerncompetenties van AI gaan verder dan alleen bekendheid met specifieke tools en richten zich in plaats daarvan op de onderliggende vaardigheden die nodig zijn om effectief te kunnen werken in deze snel veranderende omgeving:
- AI-geletterdheid de mogelijkheden en beperkingen van AI begrijpen en het veilig integreren in workflows zonder overmatig vertrouwen of misplaatst vertrouwen.
- Ethisch bewustzijn risico's met betrekking tot vooringenomenheid, privacy, verantwoordingsplicht en veiligheid identificeren, zodat AI-systemen worden ingezet op een manier die voldoet aan professionele en maatschappelijke normen.
- Kritische evaluatie de door AI gegenereerde output beoordelen aan de hand van betrouwbare bronnen en contextuele expertise, waarbij wordt erkend wanneer verdere validatie of menselijk oordeel vereist is.
- Uitlegbaarheid en transparantie AI-uitkomsten interpreteren, “black box”-modellen onderzoeken en resultaten duidelijk communiceren aan zowel technische als niet-technische belanghebbenden, waardoor het vertrouwen in door AI ondersteunde beslissingen wordt versterkt.
- Veerkracht en menselijk toezicht het ontwerpen van waarborgen die overmatige afhankelijkheid van automatisering voorkomen, robuuste waarborgen garanderen en de menselijke verantwoordelijkheid voor cruciale beslissingen behouden.
- Databeheer om de kwaliteit, diversiteit en veiligheid van gegevens die in AI-systemen worden gebruikt te waarborgen, in het besef dat slecht gegevensbeheer tot systeemkwetsbaarheden kan leiden.
- AI risicobeheer om AI-specifieke risico's zoals hallucinaties, vijandige manipulatie, onveilige codegeneratie en gegevensvergiftiging te anticiperen en te beperken, door deze overwegingen op te nemen in bredere cyberrisicokaders.
- Continu leren om vaardigheden bij te werken, opkomende bedreigingen te monitoren en mee te gaan met nieuwe ontwikkelingen in AI-toepassingen voor cyberbeveiliging.
- Scenario-denken en toekomstverkenning voorspellen hoe de vooruitgang in AI de technische, organisatorische en strategische niveaus van cyberbeveiliging kan hervormen, en professionals voorbereiden om proactief te reageren op toekomstige uitdagingen.
- Interdisciplinaire samenwerking effectief samenwerken met deskundigen op het gebied van recht, beleid, psychologie en ethiek, in het besef dat verantwoord gebruik van AI een bredere visie vereist dan alleen die van puur technische domeinen.
- Communicatie en vertrouwensopbouw beslissingen die op basis van AI zijn genomen, duidelijk en genuanceerd uitleggen, zodat het vertrouwen van alle betrokken partijen behouden blijft.
De door AI aangestuurde automatisering van repetitieve of minder waardevolle taken heeft urgente vragen opgeroepen over de transformatie van het personeelsbestand en mogelijke banenverlies. Hoewel sommige taken van analisten mogelijk zullen afnemen, ontstaan er nieuwe behoeften op het gebied van het toezicht op AI-output, het valideren van bevindingen en het aanpakken van AI-specifieke risico's, zoals hallucinaties, onveilige codegeneratie of vijandige manipulatie. In plaats van cybersecurityfuncties te elimineren, verschuift AI het vaardigheidsprofiel naar toezicht, governance en samenwerking tussen mens en AI.
Ethisch en verantwoord gebruik van AI in cyberdefensie
Door tijd, efficiëntie en middelen te optimaliseren, stelt AI verdedigers in staat om meer te doen met minder, waardoor de toegangsdrempels worden verlaagd en het vermogen om steeds complexere cyberdreigingen te detecteren en erop te reageren wordt versterkt. Naarmate cyberincidenten in omvang en complexiteit toenemen, wordt het vermogen van AI om grote hoeveelheden gegevens te verwerken onmisbaar. Een te grote afhankelijkheid van de output van AI leidt echter tot nieuwe kwetsbaarheden, met name wanneer die output onnauwkeurig is of contextueel inzicht ontbreekt, wat verschillende vragen oproept over ethiek en verantwoord gebruik:
Belangrijkste ethische kwesties
- Belangrijkste principes: Eerlijkheid
- Belangrijkste principes: privacy en gegevensbescherming
- Belangrijkste principes: transparantie en verklaarbaarheid
- Belangrijkste principes: transparantie en verklaarbaarheid
Regelgevende maatregelen
Technische oplossingen
Enquêtemethoden en gegevens
Virtual Routes heeft een online enquête gehouden onder 27 deelnemende docenten van universiteiten in heel Europa. De vragenlijst was bedoeld om vast te stellen of zij momenteel AI gebruiken in hun onderwijs op het gebied van cyberbeveiliging, hoe zij het gebruiken, waarom zij dat doen, welke specifieke tools en taken daarbij komen kijken, en of zij AI toepassen in het kader van cyberbeveiligingsondersteuning aan lokale maatschappelijke organisaties (LCO's). Hoewel de antwoorden statistisch niet significant zijn, geven ze inzicht in de huidige praktijken en verwachtingen en benadrukken ze zowel de kansen als de uitdagingen die gepaard gaan met de integratie van AI in het onderwijs op het gebied van cyberbeveiliging. De enquête werd aangevuld met vervolginterviews om een beter inzicht te krijgen in praktische gebruikssituaties.
Enkele belangrijke punten kunnen worden benadrukt:
Van de 27 respondenten gaf het merendeel (22) aan al te experimenteren met AI-tools in hun onderwijs, met name in seminars over cyberbeveiliging die worden georganiseerd door Google.org. De toepassing bevindt zich echter nog in een vroeg stadium en blijft vaak beperkt tot specifieke taken in plaats van systematische integratie. Vijf respondenten gaven aan dat ze AI nog niet gebruikten.
De meest voorkomende toepassingen zijn algemene schrijf- en gegevensverzameling/analysetaken (met behulp van gangbare LLM's), gegevenssynthese en gespecialiseerde cyberbeveiligingstaken zoals anomaliedetectie, het in kaart brengen van aanvalsoppervlakken, malware-analyse en praktische labs.
Docenten op het gebied van cyberbeveiliging gebruiken AI voornamelijk om studenten voor te bereiden op de arbeidsmarkt, om zelfstandig leren en zelfevaluatie te ondersteunen en om tijd te besparen op pedagogische taken zoals het maken van oefeningen, het geven van cijfers en het genereren van inhoud. Velen zien ook de waarde van het gebruik van AI om belangrijke concepten en scenario's op het gebied van cyberbeveiliging te illustreren.
Ongeveer de helft van de respondenten (15 van de 27) gaf aan dat ze AI al gebruikten of van plan waren te gaan gebruiken om cyberbeveiligingsondersteuning te bieden aan lokale gemeenschapsorganisaties (LCO's), een belangrijk aspect van de Google.org Cybersecurity Seminars. Dit toont aan dat er een groeiend verband bestaat tussen het verkennen van AI-tools in de klas en de toepassing ervan in de praktijk binnen gemeenschappen.
Verschillende respondenten gaven aan geïnteresseerd te zijn in richtlijnen en voorbeelden voor een effectieve integratie van AI in het onderwijs op het gebied van cyberbeveiliging. Ze benadrukten de noodzaak van best practices, gedeelde bronnen en casestudy's om de overstap te maken van experimenteren naar een meer gestructureerd en effectief gebruik van AI in het onderwijs en de dienstverlening.
Hoe navigeer je door de toolkit?
Deze toolkit bestaat uit twee delen, die de dubbele rol van AI op het gebied van cyberbeveiliging weerspiegelen.
AI in cyberdefensie
Hoe AI cyberdefensie verandert gedurende de levenscyclus van cyberincidenten:
Het eerste deel onderzoekt de impact van AI op cyberdefensie en schetst hoe AI-tools cyberdefensie ondersteunen gedurende de hele levenscyclus van incidenten, van preventie en paraatheid tot respons en herstel. Het belicht concrete toepassingen zoals het in kaart brengen van aanvalsoppervlakken, het detecteren van afwijkingen en het ontwikkelen van veilige code, en illustreert deze met casestudy's en referenties voor verdere studie.
AI in cybercriminaliteit
Hoe AI de Cyber Kill Chain verandert:
Het tweede deel gaat over de impact van AI op cyberaanvallen, met de nadruk op hoe AI de Cyber Kill Chain verandert. Het laat zien hoe AI aanvallers in staat stelt om fasen zoals verkenning, bewapening en levering te automatiseren en te verbeteren, terwijl het ook nieuwe vormen van aanvallen introduceert. Voorbeelden en verdere literatuur bieden context om deze ontwikkelingen te begrijpen.
Verklarende woordenlijst
- Adversarial AI: een reeks technieken waarbij aanvallers AI-modellen manipuleren (bijvoorbeeld door detectiesystemen te omzeilen of trainingsgegevens te manipuleren).
- Vijandige aanvallen: gegevens die zijn gewijzigd om AI-systemen te misleiden (bijvoorbeeld licht gewijzigde malware om op AI gebaseerde antivirussoftware te omzeilen).
- Tegenstrijdige voorbeelden: kwaadaardige gegevens die zijn ontworpen om AI-modellen te misleiden (bijvoorbeeld vervormde afbeeldingen of tekst).
- Uitlijning: ervoor zorgen dat de doelstellingen van AI-systemen in overeenstemming zijn met menselijke intenties.
- Kunstmatige intelligentie (AI): een gebied van de informatica dat tot doel heeft systemen te creëren die taken kunnen uitvoeren waarvoor menselijke intelligentie vereist is, zoals het detecteren van bedreigingen, het analyseren van afwijkend gedrag of het automatisch reageren op cyberbeveiligingsincidenten.
- AI verklaarbaarheid (XAI): methoden die AI-beslissingen begrijpelijk maken voor mensen.
- AI-veiligheid: ervoor zorgen dat AI-systemen zich gedragen zoals verwacht en geen nieuwe kwetsbaarheden introduceren.
- Vooringenomenheid in AI: systeemfouten in AI-resultaten veroorzaakt door onevenwichtige of bevooroordeelde trainingsgegevens.
- Gegevensvergiftiging: een type vijandige aanval waarbij kwaadaardige of beschadigde gegevens worden ingevoegd in trainingsdatasets om de prestaties van het model te verslechteren of kwetsbaarheden te introduceren.
- Deep learning (DL):een vorm van machine learning die gebruikmaakt van meerlaagse neurale netwerken om complexe gegevens (bijvoorbeeld afbeeldingen, netwerklogs) te analyseren, vaak gebruikt voor malwareclassificatie of inbraakdetectie. Neurale netwerken helpen bij het verwerken van ruwe gegevens in het hart van DL-algoritmen en helpen bij het identificeren, classificeren en verbeteren van verborgen correlaties en patronen in ruwe gegevens (neurale netwerken omvatten kunstmatige neurale netwerken, convolutional neurale netwerken en recurrent neurale netwerken, afhankelijk van de toepassing).
- Distributieverschuiving: risico dat AI-modellen ineffectief worden als de gegevens uit de praktijk afwijken van de trainingsgegevens.
- Ethisch AI: principes die ervoor zorgen dat AI op een eerlijke, verantwoorde en transparante manier wordt gebruikt in cyberbeveiliging.
- Fijnafstemming: het proces waarbij een vooraf getraind model wordt aangepast aan een specifieke taak of dataset, waarvoor vaak minder gegevens en rekenkracht nodig zijn dan wanneer het model helemaal opnieuw wordt getraind.
- Machine learning (ML): een subset van AI waarin systemen leren van gegevens om patronen te identificeren (bijvoorbeeld malware-signaturen, verdacht netwerkverkeer) en beslissingen of voorspellingen te doen.
- Model: een wiskundige weergave van een systeem dat is getraind op basis van gegevens om taken uit te voeren zoals classificatie, voorspelling of generatie in AI en machine learning.
- Modelgewichten: numerieke parameters die tijdens de training zijn aangeleerd en die bepalen hoe een AI-model inputs verwerkt om outputs te produceren. Door de gewichten aan te passen, kan het model patronen herkennen en nauwkeurige voorspellingen doen.
- Snelle injectie: een techniek die wordt gebruikt om grote taalmodellen te manipuleren door speciaal ontworpen instructies in invoergegevens in te voegen, waardoor het model zijn oorspronkelijke taak negeert of overschrijft en onbedoelde uitvoer produceert.
- Versterkend leren: een methode waarbij AI door middel van vallen en opstaan in gesimuleerde omgevingen leert om optimale beslissingen te nemen.
- Robuustheid: het vermogen van AI om betrouwbaar te functioneren onder veranderende omstandigheden (bijvoorbeeld wanneer het wordt geconfronteerd met nieuwe tegenstanders).
- Begeleid leren: een methode waarbij modellen worden getraind met behulp van gelabelde gegevens voor classificatie.
- Synthetische gegevens: kunstmatig gegenereerde gegevens die worden gebruikt om AI-modellen te trainen wanneer er weinig of gevoelige gegevens uit de praktijk beschikbaar zijn.
- Ongesuperviseerd leren: een methode voor het identificeren van verborgen patronen in ongelabelde gegevens.
Hoe u kunt bijdragen
Gebruikt u een open-source AI-oplossing om studenten te trainen in cyberbeveiliging, of beschikt u over andere openbaar beschikbare bronnen die u kunt delen voor het onderwijzen van AI en cyberbeveiliging (al dan niet op basis van AI)?
We horen graag van u. Stuur ons een e-mail op
co*****@vi************.org
, zullen we uw bijdragen delen met de bredere gemeenschap en ervoor zorgen dat deze toolkit up-to-date blijft.