AI in Cybersecurity Toolkit

Bronnen voor docenten op het gebied van cyberbeveiliging

Inleiding

Kunstmatige intelligentie (AI) verandert het cyberbeveiligingslandschap in hoog tempo, zowel als verdedigingsmiddel als als aanvalswapen. Voor docenten creëert deze dubbele rol een dringende noodzaak om studenten niet alleen voor te bereiden op het gebruik van AI ter bescherming, maar ook om hen te laten begrijpen hoe tegenstanders het kunnen misbruiken bij aanvallen.

Op defensief gebied is AI al geïntegreerd in professionele beveiligingsomgevingen en heeft het invloed op alle verschillende fasen van de levenscyclus van cyberincidenten (bijv. preventie, paraatheid, respons en herstel). Het ondersteunt logboekanalyse, detectie van afwijkingen, onderzoek naar malware en zelfs bewustwordingstraining, waardoor verdedigers sneller, nauwkeuriger en schaalbaarder kunnen werken. In het klaslokaal biedt AI ook nieuwe onderwijsmogelijkheden door beoordelingen te automatiseren, casestudy's te genereren, incidenten uit de praktijk te simuleren en interactieve oefeningen te ontwerpen die studenten helpen om complexe cyberbeveiligingsconcepten effectiever te begrijpen.

Tegelijkertijd stimuleert AI een nieuwe generatie van offensieve cyberoperaties. Kwaadwillende actoren gebruiken generatieve AI als wapen om verkenningen te automatiseren, phishingcampagnes te personaliseren, kwetsbaarheden sneller op te sporen of adaptieve malware in te zetten. Deze transformatie van de cyber kill chain heeft de omvang en de verfijning van aanvallen wereldwijd geïntensiveerd, van ransomware tot deepfakes en swarm-malware. AI is dus zowel een enabler van cyberaanvallen als zelf een doelwit van vijandige exploitatie, waarbij kwetsbaarheden zoals data poisoning en vijandige voorbeelden nieuwe risico's met zich meebrengen.

Deze toolkit is ontwikkeld door Virtual Routes als onderdeel van de Cybersecurity-seminars Programma ondersteund door Google.org, om docenten en studenten te voorzien van bronnen in een voortdurend evoluerend vakgebied. Het is gebaseerd op een enquête onder deelnemende universiteiten en biedt materiaal om inzicht te krijgen in de impact van AI op cyberbeveiliging, waarbij de dubbele rol ervan als zowel defensief als offensief instrument wordt belicht.

Impact van AI op cyberbeveiligingsvaardigheden

De Europees kader voor cyberbeveiligingsvaardigheden (ECSF) definieert twaalf belangrijke professionele cybersecurityfuncties, samen met de taken, vaardigheden, kennis en competenties die in de hele sector nodig zijn. Deze functies variëren van technische taken zoals dreigingsinformatie en penetratietesten tot bredere taken zoals risicobeheer en opleiding. We hebben vijf belangrijke manieren geïdentificeerd waarop AI van invloed is op de vaardigheden en competenties die voor deze functies vereist zijn:

Data-analyse en dreigingsinformatie

ECSF: Specialist in cyberdreigingsinformatie; Digitaal forensisch onderzoeker

LLM's kunnen het verzamelen, correleren en samenvatten van grote hoeveelheden dreigingsrapporten, logboeken en indicatoren van compromittering versnellen. Analisten moeten de bevindingen nog steeds valideren, maar hun focus verschuift van repetitief parseren naar kritische interpretatie.

Incidentdetectie en -respons

ECSF: Cyberincidentenbestrijder

AI kan helpen bij het opsporen van afwijkingen, triage en eerste rapportage. Vaardigheden op het gebied van het valideren van waarschuwingen, het in context plaatsen van incidenten en het bepalen van evenredige reacties worden steeds belangrijker.

Risicobeoordeling en naleving

ECSF: Cyber Legal, Policy & Compliance Officer; Cybersecurity Risk Manager; Cybersecurity Auditor

AI kan automatische classificatie van gevoelige gegevens en voorlopige risicoscores ondersteunen. Beoefenaars moeten hun eigen oordeel gebruiken om te beoordelen of de door AI gegenereerde resultaten in overeenstemming zijn met de wettelijke en organisatorische vereisten.

Veilige ontwikkeling en codebeoordeling

ECSF: Cybersecurity-implementator; Cybersecurity-architect; Penetratietester

AI-compatibele codescanning markeert onveilige patronen en stelt oplossingen voor. Professionals blijven verantwoordelijk voor het waarborgen van veilige coderingspraktijken en voor het beperken van het risico op AI-hallucinaties of valse positieven, aangezien AI ook onveilige code kan genereren.

Onderwijs en bewustwording

ECSF: Docent cyberbeveiliging; Onderzoeker cyberbeveiliging

LLM's maken het mogelijk om adaptieve trainingsscenario's, synthetische datasets en geautomatiseerde feedback te genereren. De vaardigheden van docenten evolueren in de richting van het op verantwoorde wijze samenstellen, valideren en integreren van AI-bronnen in lesprogramma's.

Kerncompetenties AI voor cyberbeveiliging

De alomtegenwoordige toepassing van AI vereist dat alle cybersecurityprofessionals, ongeacht hun functie, nieuwe vaardigheden ontwikkelen die bijdragen aan een verantwoord, adaptief en effectief gebruik van AI-tools. Deze kerncompetenties van AI gaan verder dan alleen bekendheid met specifieke tools en richten zich in plaats daarvan op de onderliggende vaardigheden die nodig zijn om effectief te kunnen werken in deze snel veranderende omgeving:

1. Fundamenteel begrip
  • AI-geletterdheid de mogelijkheden en beperkingen van AI begrijpen en het veilig integreren in workflows zonder overmatig vertrouwen of misplaatst vertrouwen.
  • Ethisch bewustzijn risico's met betrekking tot vooringenomenheid, privacy, verantwoordingsplicht en veiligheid identificeren, zodat AI-systemen worden ingezet op een manier die voldoet aan professionele en maatschappelijke normen.
2. Evaluatie en toezicht
  • Kritische evaluatie de door AI gegenereerde output beoordelen aan de hand van betrouwbare bronnen en contextuele expertise, waarbij wordt erkend wanneer verdere validatie of menselijk oordeel vereist is.
  • Uitlegbaarheid en transparantie AI-uitkomsten interpreteren, “black box”-modellen onderzoeken en resultaten duidelijk communiceren aan zowel technische als niet-technische belanghebbenden, waardoor het vertrouwen in door AI ondersteunde beslissingen wordt versterkt.
  • Veerkracht en menselijk toezicht het ontwerpen van waarborgen die overmatige afhankelijkheid van automatisering voorkomen, robuuste waarborgen garanderen en de menselijke verantwoordelijkheid voor cruciale beslissingen behouden.
3. Risico- en gegevensbeheer
  • Databeheer om de kwaliteit, diversiteit en veiligheid van gegevens die in AI-systemen worden gebruikt te waarborgen, in het besef dat slecht gegevensbeheer tot systeemkwetsbaarheden kan leiden.
  • AI risicobeheer om AI-specifieke risico's zoals hallucinaties, vijandige manipulatie, onveilige codegeneratie en gegevensvergiftiging te anticiperen en te beperken, door deze overwegingen op te nemen in bredere cyberrisicokaders.
4. Toekomstgericht aanpassingsvermogen
  • Continu leren om vaardigheden bij te werken, opkomende bedreigingen te monitoren en mee te gaan met nieuwe ontwikkelingen in AI-toepassingen voor cyberbeveiliging.
  • Scenario-denken en toekomstverkenning voorspellen hoe de vooruitgang in AI de technische, organisatorische en strategische niveaus van cyberbeveiliging kan hervormen, en professionals voorbereiden om proactief te reageren op toekomstige uitdagingen.
5. Samenwerking en communicatie
  • Interdisciplinaire samenwerking effectief samenwerken met deskundigen op het gebied van recht, beleid, psychologie en ethiek, in het besef dat verantwoord gebruik van AI een bredere visie vereist dan alleen die van puur technische domeinen.
  • Communicatie en vertrouwensopbouw beslissingen die op basis van AI zijn genomen, duidelijk en genuanceerd uitleggen, zodat het vertrouwen van alle betrokken partijen behouden blijft.

De door AI aangestuurde automatisering van repetitieve of minder waardevolle taken heeft urgente vragen opgeroepen over de transformatie van het personeelsbestand en mogelijke banenverlies. Hoewel sommige taken van analisten mogelijk zullen afnemen, ontstaan er nieuwe behoeften op het gebied van het toezicht op AI-output, het valideren van bevindingen en het aanpakken van AI-specifieke risico's, zoals hallucinaties, onveilige codegeneratie of vijandige manipulatie. In plaats van cybersecurityfuncties te elimineren, verschuift AI het vaardigheidsprofiel naar toezicht, governance en samenwerking tussen mens en AI.

Ethisch en verantwoord gebruik van AI in cyberdefensie

Door tijd, efficiëntie en middelen te optimaliseren, stelt AI verdedigers in staat om meer te doen met minder, waardoor de toegangsdrempels worden verlaagd en het vermogen om steeds complexere cyberdreigingen te detecteren en erop te reageren wordt versterkt. Naarmate cyberincidenten in omvang en complexiteit toenemen, wordt het vermogen van AI om grote hoeveelheden gegevens te verwerken onmisbaar. Een te grote afhankelijkheid van de output van AI leidt echter tot nieuwe kwetsbaarheden, met name wanneer die output onnauwkeurig is of contextueel inzicht ontbreekt, wat verschillende vragen oproept over ethiek en verantwoord gebruik:

Belangrijkste ethische kwesties

Vooringenomenheid en discriminatie
AI-modellen die zijn getraind op bevooroordeelde of onevenwichtige datasets kunnen bepaalde gebruikersgroepen of regio's ten onrechte als kwaadaardig markeren. Bijvoorbeeld:, cybersecurityonderzoekers hebben een inbraakdetectiesysteem getraind op basis van historische aanvalsgegevens en ontdekte dat dit 30% meer valse positieven opleverde voor gebruikers in ondervertegenwoordigde regio's, terwijl evenwichtige training tot eerlijkere resultaten leidde. Op dezelfde manier kan AI te veel prioriteit geven aan bekende soorten aanvallen en nieuwe bedreigingen onderschatten, waardoor er gaten in de verdediging ontstaan.
Zorg voor niet-discriminerende resultaten door algoritmische en gegevensvertekening aan te pakken.
Monitoring en bewaking
AI-gedreven beveiliging vereist grootschalige monitoring van netwerkverkeer, inlogpogingen en gebruikersgedrag., het creëren van gedetailleerde digitale voetafdrukken. Deze voortdurende bewaking brengt risico's met zich mee. het ondermijnen van het vertrouwen van gebruikers en het oproepen van vragen over toestemming. Bovendien, langdurige gegevensbewaring vergroot de kans op inbreuken, en cloudgebaseerde verwerking zorgt voor vragen over grensoverschrijdend gegevensbeheer.
Bescherm persoonlijke en organisatorische gegevens, respecteer toestemming en beperk onnodige verzameling tot een minimum.
Autonome besluitvorming en onbedoelde gevolgen
Geautomatiseerde maatregelen zoals het blokkeren van accounts, het blokkeren van IP-adressen of het afsluiten van netwerken kunnen onaanvaardbare percentages valse positieven of valse negatieven opleveren, vooral wanneer geautomatiseerde beslissingen onvoldoende zijn gebaseerd op relevante context. In een experiment uitgevoerd door cybersecurityonderzoekers, AI-gebaseerde systemen blokkeerden met succes 92% aan bedreigingen, maar markeerden ten onrechte 8% aan legitieme activiteiten als kwaadaardig. Dergelijke fouten kunnen kritieke diensten verstoren, bijvoorbeeld in de financiële sector of de gezondheidszorg, en maken het moeilijker om verantwoordelijkheid te nemen voor de veroorzaakte schade.
Zorg voor mechanismen waarbij mensen betrokken blijven en wijs duidelijk verantwoordelijkheden toe voor door AI gestuurde resultaten.
Ondoorzichtigheid van AI-modellen
Veel AI-systemen functioneren als “zwarte dozen” en geven weinig inzicht in hoe ze tot hun conclusies komen. Op het gebied van cyberbeveiliging, Dit gebrek aan verklaarbaarheid kan het voor analisten moeilijk maken om te begrijpen waarom legitiem verkeer wordt gemarkeerd of waarom bepaalde bedreigingen prioriteit krijgen, wat kan leiden tot het vertrouwen ondermijnen en effectieve reacties vertragen.
Maak de besluitvormingsprocessen van AI duidelijk en begrijpelijk voor belanghebbenden.
Om deze principes in de praktijk te brengen, kunnen organisaties gebruikmaken van een combinatie van regelgevende en technische instrumenten om de betrouwbaarheid van AI-systemen te verbeteren:
Regelgevende maatregelen omvatten nalevingskaders zoals de EU-wet inzake kunstmatige intelligentie (AI-wet), waarin risicogebaseerde verplichtingen, beoordelingen van de gevolgen voor de grondrechten en verantwoordingsmechanismen voor risicovolle AI-systemen worden geïntroduceerd. Andere regelgevende maatregelen zijn onder meer algoritmische effectbeoordelingen om risico's vóór de implementatie te evalueren, naleving van wetgeving inzake gegevensbescherming, zoals de AVG en CCPA, en verantwoordingskaders die aansprakelijkheid toewijzen voor fouten in verband met AI. De ontwikkeling en invoering van internationaal erkende normen en certificeringen bieden aanvullende nalevingsinstrumenten die helpen bij het operationaliseren van wettelijke verplichtingen, het bevorderen van vertrouwen en, tot op zekere hoogte, het stimuleren van innovatie door organisaties de mogelijkheid te bieden om te experimenteren met productontwikkeling binnen vooraf vastgestelde kaders.
Technische oplossingen omvatten eerlijke machine learning-methoden, technieken voor het opsporen en verminderen van vooringenomenheid, technologieën die de privacy verbeteren, zoals versleuteling en anonimisering, en verklaarbare AI-benaderingen die besluitvormingsprocessen transparanter maken. Menselijk toezicht en continue monitoring van modellen ervoor zorgen dat geautomatiseerde systemen nauwkeurig en ethisch blijven en in overeenstemming zijn met de waarden van de organisatie en de samenleving.

Enquêtemethoden en gegevens

Virtual Routes heeft een online enquête gehouden onder 27 deelnemende docenten van universiteiten in heel Europa. De vragenlijst was bedoeld om vast te stellen of zij momenteel AI gebruiken in hun onderwijs op het gebied van cyberbeveiliging, hoe zij het gebruiken, waarom zij dat doen, welke specifieke tools en taken daarbij komen kijken, en of zij AI toepassen in het kader van cyberbeveiligingsondersteuning aan lokale maatschappelijke organisaties (LCO's). Hoewel de antwoorden statistisch niet significant zijn, geven ze inzicht in de huidige praktijken en verwachtingen en benadrukken ze zowel de kansen als de uitdagingen die gepaard gaan met de integratie van AI in het onderwijs op het gebied van cyberbeveiliging. De enquête werd aangevuld met vervolginterviews om een beter inzicht te krijgen in praktische gebruikssituaties.

Enkele belangrijke punten kunnen worden benadrukt:

Vroeg maar groeiend gebruik van AI

Van de 27 respondenten gaf het merendeel (22) aan al te experimenteren met AI-tools in hun onderwijs, met name in seminars over cyberbeveiliging die worden georganiseerd door Google.org. De toepassing bevindt zich echter nog in een vroeg stadium en blijft vaak beperkt tot specifieke taken in plaats van systematische integratie. Vijf respondenten gaven aan dat ze AI nog niet gebruikten.

Gevarieerde gebruikssituaties

De meest voorkomende toepassingen zijn algemene schrijf- en gegevensverzameling/analysetaken (met behulp van gangbare LLM's), gegevenssynthese en gespecialiseerde cyberbeveiligingstaken zoals anomaliedetectie, het in kaart brengen van aanvalsoppervlakken, malware-analyse en praktische labs.

Motivaties voor adoptie

Docenten op het gebied van cyberbeveiliging gebruiken AI voornamelijk om studenten voor te bereiden op de arbeidsmarkt, om zelfstandig leren en zelfevaluatie te ondersteunen en om tijd te besparen op pedagogische taken zoals het maken van oefeningen, het geven van cijfers en het genereren van inhoud. Velen zien ook de waarde van het gebruik van AI om belangrijke concepten en scenario's op het gebied van cyberbeveiliging te illustreren.

Toepassing in maatschappelijke dienstverlening

Ongeveer de helft van de respondenten (15 van de 27) gaf aan dat ze AI al gebruikten of van plan waren te gaan gebruiken om cyberbeveiligingsondersteuning te bieden aan lokale gemeenschapsorganisaties (LCO's), een belangrijk aspect van de Google.org Cybersecurity Seminars. Dit toont aan dat er een groeiend verband bestaat tussen het verkennen van AI-tools in de klas en de toepassing ervan in de praktijk binnen gemeenschappen.

Behoeften en verwachtingen van docenten

Verschillende respondenten gaven aan geïnteresseerd te zijn in richtlijnen en voorbeelden voor een effectieve integratie van AI in het onderwijs op het gebied van cyberbeveiliging. Ze benadrukten de noodzaak van best practices, gedeelde bronnen en casestudy's om de overstap te maken van experimenteren naar een meer gestructureerd en effectief gebruik van AI in het onderwijs en de dienstverlening.

Hoe navigeer je door de toolkit?

Deze toolkit bestaat uit twee delen, die de dubbele rol van AI op het gebied van cyberbeveiliging weerspiegelen.

AI in cyberdefensie

Hoe AI cyberdefensie verandert gedurende de levenscyclus van cyberincidenten:

Het eerste deel onderzoekt de impact van AI op cyberdefensie en schetst hoe AI-tools cyberdefensie ondersteunen gedurende de hele levenscyclus van incidenten, van preventie en paraatheid tot respons en herstel. Het belicht concrete toepassingen zoals het in kaart brengen van aanvalsoppervlakken, het detecteren van afwijkingen en het ontwikkelen van veilige code, en illustreert deze met casestudy's en referenties voor verdere studie.

AI in cybercriminaliteit

Hoe AI de Cyber Kill Chain verandert:

Het tweede deel gaat over de impact van AI op cyberaanvallen, met de nadruk op hoe AI de Cyber Kill Chain verandert. Het laat zien hoe AI aanvallers in staat stelt om fasen zoals verkenning, bewapening en levering te automatiseren en te verbeteren, terwijl het ook nieuwe vormen van aanvallen introduceert. Voorbeelden en verdere literatuur bieden context om deze ontwikkelingen te begrijpen.

Verklarende woordenlijst

Hoe u kunt bijdragen

Gebruikt u een open-source AI-oplossing om studenten te trainen in cyberbeveiliging, of beschikt u over andere openbaar beschikbare bronnen die u kunt delen voor het onderwijzen van AI en cyberbeveiliging (al dan niet op basis van AI)?

We horen graag van u. Stuur ons een e-mail op co*****@vi************.org , zullen we uw bijdragen delen met de bredere gemeenschap en ervoor zorgen dat deze toolkit up-to-date blijft.

Bedankt voor uw aanmelding voor onze nieuwsbrief!

Bedankt! RSVP ontvangen voor AI in Cybersecurity Toolkit

AI in Cybersecurity Toolkit

Bezig met laden...

Bezig met laden...