Mākslīgais intelekts kiberdrošības rīku komplektā

Resursi kiberdrošības izglītotājiem

Ievads

Mākslīgais intelekts (AI) strauji maina kiberdrošības ainavu - gan kā aizsardzības rīks, gan kā ierocis uzbrukumam. Pedagogiem šī dubultā loma rada steidzamu nepieciešamību sagatavot studentus ne tikai izmantot AI aizsardzībai, bet arī saprast, kā pretinieki to var izmantot uzbrukumos.

Aizsardzības jomā AI jau ir iestrādāts profesionālās drošības vidēs, ietekmējot visus dažādos kiberincidentu dzīves cikla posmus (piemēram, novēršanu, gatavību, reaģēšanu un atjaunošanu). Tas nodrošina žurnālu analīzi, anomāliju atklāšanu, ļaunprātīgas programmatūras izmeklēšanu un pat informētības apmācību, nodrošinot aizstāvjiem lielāku ātrumu, precizitāti un mērogojamību. AI paver arī jaunas mācību iespējas, automatizējot novērtējumus, ģenerējot gadījumu izpēti, simulējot reālus incidentus un izstrādājot interaktīvus uzdevumus, kas palīdz studentiem efektīvāk izprast sarežģītus kiberdrošības jēdzienus.

Vienlaikus AI ir jaunās paaudzes kiberoperāciju dzinējspēks. Ļaunprātīgie dalībnieki izmanto ģeneratīvo AI, lai automatizētu izlūkošanu, personalizētu pikšķerēšanas kampaņas, paātrinātu ievainojamību atklāšanu vai izvērstu adaptīvu ļaunprogrammatūru. Šī kiberuzbrukumu ķēdes transformācija ir pastiprinājusi uzbrukumu mērogu un sarežģītību visā pasaulē, sākot ar izpirkuma maksu, beidzot ar "deepfakes" un "swarm" ļaunprogrammatūru. Tādējādi AI ir gan kiberuzbrukumu veicinātājs, gan arī pats kļūst par pretinieku izmantošanas mērķi, un tādi ievainojamības veidi kā datu saindēšana un pretinieku piemēri rada jaunus riskus.

Šo rīku kopumu izstrādāja Virtual Routes kā daļu no Kiberdrošības semināru programmu atbalsta Google.org, lai skolotājiem un skolēniem nodrošinātu resursus pastāvīgi augošajā jomā. Tā ir balstīta uz iesaistīto universitāšu aptauju un sniedz materiālus, kas palīdz izprast AI ietekmi uz kiberdrošību, iepazīstinot ar tās divējādo lomu gan kā aizsardzības, gan kā uzbrukuma līdzekli.

AI ietekme uz kiberdrošības prasmēm

Portāls Eiropas kiberdrošības prasmju ietvarstruktūra (ECSF) definētas divpadsmit galvenās kiberdrošības profesionāļu lomas, kā arī uzdevumi, prasmes, zināšanas un kompetences, kas nepieciešamas šajā nozarē. Šīs lomas aptver gan tehniskās funkcijas, piemēram, draudu izlūkošana un iekļūšanas testēšana, gan plašākus uzdevumus, piemēram, riska pārvaldība un izglītošana. Mēs identificējām piecus galvenos veidus, kā AI ietekmē šīm funkcijām nepieciešamās prasmes un kompetences:

Datu analīze un draudu izlūkošana

ECSF: kiberdraudu izlūkošanas speciālists; digitālās kriminālistikas izmeklētājs

LLM var paātrināt liela apjoma ziņojumu par apdraudējumiem, žurnālu un kompromitējošu indikatoru vākšanu, korelāciju un apkopošanu. Analītiķiem joprojām ir jāapstiprina konstatējumi, bet viņu uzmanības centrā ir nevis atkārtota analīze, bet kritiska interpretācija.

Incidentu atklāšana un reaģēšana

ECSF: reaģētājs uz kiberincidentiem

AI var palīdzēt anomāliju atklāšanā, šķirošanā un sākotnējā ziņošanā. Arvien svarīgākas kļūst prasmes apstiprināt brīdinājumus, kontekstualizēt incidentus un pieņemt lēmumus par proporcionālu reakciju.

Riska novērtējums un atbilstība

ECSF: Kiberdrošības tiesību, politikas un atbilstības amatpersona; Kiberdrošības risku pārvaldnieks; Kiberdrošības auditors.

AI var atbalstīt sensitīvu datu automātisku klasifikāciju un iepriekšēju riska novērtēšanu. Praktiķiem ir jāizmanto spriedums, lai novērtētu, vai AI vadītie rezultāti atbilst normatīvajām un organizatoriskajām prasībām.

Droša izstrāde un koda pārskatīšana

ECSF: kiberdrošības īstenotājs; kiberdrošības arhitekts; iekļūšanas testētājs.

AI iespējota kodu skenēšana izceļ nedrošus modeļus un ierosina labojumus. Profesionāļi joprojām ir atbildīgi par drošas kodēšanas prakses nodrošināšanu un AI halucināciju vai viltus pozitīvu rezultātu riska mazināšanu, jo AI var radīt arī nedrošu kodu.

Izglītība un informētība

ECSF: kiberdrošības pasniedzējs; kiberdrošības pētnieks

LLM ļauj ģenerēt adaptīvus mācību scenārijus, sintētiskas datu kopas un automatizētu atgriezenisko saiti. Pedagoga prasmju kopums attīstās tā, lai AI resursi tiktu atbildīgi kurēti, validēti un iestrādāti mācību programmās.

AI pamatprasmes kiberdrošības jomā

AI vispārēja ieviešana prasa, lai visi kiberdrošības profesionāļi neatkarīgi no viņu amata attīstītu jaunas prasmes, kas veicina AI rīku atbildīgu, adaptīvu un efektīvu izmantošanu. Šīs AI pamatprasmes sniedzas tālāk par konkrēto rīku pārzināšanu, bet koncentrējas uz pamatspējām, kas nepieciešamas, lai efektīvi strādātu šajā strauji mainīgajā vidē:

1. Pamata izpratne
  • AI rakstpratība izprast AI iespējas un ierobežojumus, kā arī droši integrēt to darba plūsmās bez pārmērīgas paļaušanās vai nepareizas uzticēšanās.
  • Ētikas izpratne identificēt riskus, kas saistīti ar neobjektivitāti, privātumu, atbildību un drošību, nodrošinot, ka AI sistēmas tiek izmantotas tā, lai tiktu ievēroti profesionālie un sabiedriskie standarti.
2. Novērtēšana un uzraudzība
  • Kritisks novērtējums novērtēt AI ģenerētos rezultātus, salīdzinot tos ar uzticamiem avotiem un kontekstuālajām zināšanām, lai atpazītu, kad ir nepieciešama papildu validācija vai cilvēka vērtējums.
  • Paskaidrojamība un pārredzamība interpretēt AI rezultātus, analizēt "melnās kastes" modeļus un skaidri paziņot rezultātus gan tehniskajām, gan netehniskajām ieinteresētajām personām, tādējādi stiprinot uzticību AI atbalstītajiem lēmumiem.
  • Izturība un cilvēku pārraudzība izstrādāt aizsargpasākumus, kas novērš pārmērīgu paļaušanos uz automatizāciju, nodrošinot stingrus drošības pasākumus un saglabājot cilvēka atbildību par svarīgiem lēmumiem.
3. Risku un datu pārvaldība
  • Datu pārvaldība nodrošināt AI sistēmās izmantoto datu kvalitāti, daudzveidību un drošību, saprotot, ka slikta datu pārvaldība var radīt sistēmiskas ievainojamības.
  • AI riska pārvaldība paredzēt un mazināt AI specifiskos riskus, piemēram, halucinācijas, pretēju manipulācijas, nedroša koda ģenerēšanu un datu saindēšanu, iekļaujot šos apsvērumus plašākās kiberdrošības sistēmās.
4. Nākotnes pielāgošanās spēja
  • Nepārtraukta mācīšanās atjaunināt prasmes, uzraudzīt jaunos draudus un iepazīties ar jaunumiem AI kiberdrošības lietojumprogrammu jomā.
  • Scenāriju domāšana un prognozēšana paredzēt, kā AI sasniegumi var mainīt kiberdrošības tehnisko, organizatorisko un stratēģisko līmeni, un sagatavot speciālistus, lai proaktīvi reaģētu uz nākotnes izaicinājumiem.
5. Sadarbība un saziņa
  • Starpdisciplinārā sadarbība efektīvi sadarboties ar tiesību, politikas, psiholoģijas un ētikas ekspertiem, atzīstot, ka atbildīgai AI izmantošanai ir nepieciešama perspektīva, kas sniedzas tālāk par tīri tehniskām jomām.
  • Saziņa un uzticības veidošana skaidrāk un niansētāk izskaidrot AI balstītus lēmumus, saglabājot uzticību starp visām iesaistītajām ieinteresētajām personām.

AI izraisīta atkārtotu vai mazvērtīgu uzdevumu automatizācija ir radījusi steidzamus jautājumus par darbaspēka pārveidošanu un potenciālo darba vietu pārvietošanu. Tomēr, lai gan daži analītiķu uzdevumi var samazināties, rodas jaunas prasības attiecībā uz AI rezultātu uzraudzību, konstatējumu apstiprināšanu un tādu AI specifisku risku novēršanu kā halucinācijas, nedroša koda ģenerēšana vai ļaunprātīgas manipulācijas. Tā vietā, lai likvidētu kiberdrošības funkcijas, AI maina prasmju profilu uz pārraudzību, pārvaldību un cilvēku un AI sadarbību.

Ētiska un atbildīga AI izmantošana kiberaizsardzībā

Optimizējot laiku, efektivitāti un resursus, AI ļauj aizstāvjiem paveikt vairāk ar mazākiem resursiem, samazinot šķēršļus un stiprinot spēju atklāt un reaģēt uz arvien sarežģītākiem kiberapdraudējumiem. Tā kā kiberincidentu apjoms un sarežģītība pieaug, AI spēja apstrādāt lielus datu apjomus padara to neaizstājamu. Tomēr pārmērīga paļaušanās uz AI rezultātiem rada jaunas ievainojamības, jo īpaši, ja šie rezultāti ir neprecīzi vai tiem trūkst kontekstuālas izpratnes, radot vairākus jautājumus par ētiku un atbildīgu izmantošanu:

Galvenie ētikas jautājumi

Aizspriedumi un diskriminācija
AI modeļi, kas apmācīti, izmantojot neobjektīvas vai nesabalansētas datu kopas, var netaisnīgi noteikt noteiktas lietotāju grupas vai reģionus kā ļaunprātīgus. Piemēram, kiberdrošības pētnieki apmācīja ielaušanās atklāšanas sistēmu, izmantojot vēsturiskus uzbrukumu datus. un konstatēja, ka tā radīja 30% vairāk kļūdaini pozitīvu rezultātu lietotājiem nepietiekami pārstāvētos reģionos, savukārt līdzsvarota apmācība deva taisnīgākus rezultātus. Līdzīgi AI var piešķirt pārāk augstu prioritāti pazīstamiem uzbrukumu veidiem, bet nepietiekami novērtēt jaunos draudus, radot aizsardzības nepilnības.
Nodrošināt nediskriminējošus rezultātus, novēršot algoritmu un datu neobjektivitāti.
Uzraudzība un pārraudzība
AI balstīta drošība prasa liela mēroga tīkla datplūsmas, pieteikšanās mēģinājumu un lietotāju uzvedības uzraudzību, detalizētu digitālo nospiedumu veidošana.. Šī pastāvīgā uzraudzība rada risku. mazina lietotāju uzticēšanos un rada piekrišanas jautājumus.. Turklāt, ilgstoša datu glabāšana palielina pārkāpumu iespējamību., un apstrāde mākoņtehnoloģijās palielina jautājumi par pārrobežu datu pārvaldību..
aizsargāt personas un organizācijas datus, ievērot piekrišanu un līdz minimumam samazināt nevajadzīgu datu vākšanu.
Autonoma lēmumu pieņemšana un neparedzētas sekas
Automatizētiem pasākumiem, piemēram, kontu bloķēšanai, IP bloķēšanai vai tīkla slēgšanai, var būt nepieņemami viltus pozitīvu vai viltus negatīvu rezultātu rādītāji, jo īpaši, ja automatizētie lēmumi nav pietiekami pamatoti ar attiecīgo kontekstu. Kiberdrošības pētnieku veiktajā eksperimentā, uz AI balstītas sistēmas veiksmīgi bloķēja 92% draudu, bet 8% likumīgu darbību kļūdaini apzīmēja kā ļaunprātīgas. Šādas kļūdas rada risku, ka var tikt traucēti kritiski svarīgi pakalpojumi, piemēram, finanšu vai veselības aprūpes jomā, un apgrūtina atbildību par nodarīto kaitējumu.
Saglabāt cilvēka iesaistes mehānismus un skaidri noteikt atbildību par AI virzītiem rezultātiem.
AI modeļu necaurredzamība
Daudzas AI sistēmas darbojas kā "melnās kastes", sniedzot nelielu ieskatu par to, kā tās nonāk pie secinājumiem. Kiberdrošībā, šis izskaidrojamības trūkums var apgrūtināt analītiķu izpratni par to, kāpēc tiek atzīmēta likumīga datplūsma vai kāpēc noteiktiem apdraudējumiem tiek piešķirta prioritāte, kas var grauj uzticību. un aizkavē efektīvu reakciju.
padarīt AI lēmumu pieņemšanas procesus ieinteresētajām personām skaidrus un interpretējamus.
Lai īstenotu šos principus praksē, organizācijas var izmantot regulatīvo un tehnisko instrumentu kombināciju, lai uzlabotu AI sistēmu uzticamību:
Regulatīvie pasākumi ietver atbilstības sistēmas, piemēram. ES likums par mākslīgo intelektu (AI likums), ar ko ievieš uz risku balstītus pienākumus, ietekmes uz pamattiesībām novērtējumus un atbildības mehānismus attiecībā uz augsta riska AI sistēmām. Citi regulatīvie pasākumi ietver algoritmu ietekmes novērtējumus, lai novērtētu riskus pirms ieviešanas, atbilstību datu aizsardzības tiesību aktiem, piem. GDPR un CCPA, un pārskatatbildības sistēmas kas nosaka atbildību par kļūdām, kuras saistītas ar AI. Starptautiski atzītu standartu un sertifikātu izstrāde un pieņemšana nodrošina papildu atbilstības instrumentus, kas palīdz īstenot juridiskās saistības, veicina uzticēšanos un zināmā mērā sekmē inovācijas, sniedzot organizācijām iespēju eksperimentēt ar produktu izstrādi, ievērojot iepriekš noteiktus drošības noteikumus.
Tehniskie risinājumi ietver godīgumu nodrošinošas mašīnmācīšanās metodes, neobjektivitātes noteikšanas un mazināšanas metodes, privātuma uzlabošanas tehnoloģijas, piemēram, šifrēšanu un anonimizāciju, kā arī izskaidrojamas AI pieejas, kas padara lēmumu pieņemšanas procesus pārredzamākus. Cilvēka uzraudzība un nepārtraukta modeļu uzraudzība. turpināt nodrošināt, ka automatizētās sistēmas joprojām ir precīzas, ētiskas un atbilst organizācijas un sabiedrības vērtībām.

Apsekojuma metodes un dati

Virtual Routes veica tiešsaistes aptauju, kurā piedalījās 27 pedagogi no universitātēm visā Eiropā. Aptaujas mērķis bija noskaidrot, vai viņi pašlaik izmanto AI kiberdrošības mācībās, kā viņi to izmanto, kādēļ viņi to dara, kādus konkrētus rīkus un uzdevumus izmanto un vai viņi izmanto AI saistībā ar kiberdrošības atbalstu, ko sniedz vietējām kopienas organizācijām (LKO). Lai gan atbildes nav statistiski nozīmīgas, tās sniedz ieskatu pašreizējā praksē un gaidās, uzsverot gan iespējas, gan problēmas, kas saistītas ar AI integrēšanu kiberdrošības izglītībā. Aptauja tika papildināta ar papildu intervijām, lai labāk izprastu praktiskos izmantošanas gadījumus.

Var izcelt dažus galvenos secinājumus:

AI izmantošana agrīnā, bet pieaugošā stadijā

No 27 respondentiem lielākā daļa (22) norādīja, ka viņi jau eksperimentē ar AI rīkiem savā mācību procesā, jo īpaši Google.org organizētajos kiberdrošības semināros. Tomēr pieņemšana vēl ir tikai sākumposmā un bieži vien aprobežojas ar konkrētiem uzdevumiem, nevis sistemātisku integrāciju. Pieci respondenti norādīja, ka viņi vēl neizmanto AI.

Dažādi izmantošanas gadījumi

Visbiežāk lietojumi ietver vispārīgus rakstīšanas un datu vākšanas/analīzes uzdevumus (izmantojot kopējos LLM), datu sintēzi un specializētus kiberdrošības uzdevumus, piemēram, anomāliju atklāšanu, uzbrukuma virsmas kartēšanu, ļaunprogrammatūras analīzi un praktiskas laboratorijas.

Pieņemšanas motivācija

Kiberdrošības pasniedzēji galvenokārt izmanto AI, lai palīdzētu studentiem sagatavoties darbam, atbalstītu pašvadītu mācīšanos un pašnovērtēšanu un ietaupītu laiku, kas nepieciešams pedagoģisko uzdevumu veikšanai, piemēram, uzdevumu izveidei, vērtēšanai un satura ģenerēšanai. Daudzi uzskata, ka AI ir lietderīgi izmantot arī, lai ilustrētu galvenos kiberdrošības jēdzienus un scenārijus.

Piemērošana sabiedrisko pakalpojumu jomā

Aptuveni puse respondentu (15 no 27) norādīja, ka jau izmanto vai plāno izmantot AI, lai sniegtu kiberdrošības atbalstu vietējām kopienu organizācijām (LCO), kas ir galvenais Google.org kiberdrošības semināru aspekts. Tas liecina par pieaugošo saikni starp AI rīku izpēti klasē un to izmantošanu reālos kopienas kontekstos.

Pedagogu vajadzības un gaidas

Vairāki respondenti pauda interesi saņemt norādījumus un piemērus par to, kā efektīvi integrēt AI kiberdrošības izglītībā. Viņi uzsvēra, ka ir nepieciešama paraugprakse, kopīgi resursi un gadījumu izpēte, lai no eksperimentiem pārietu uz strukturētāku un efektīvāku AI izmantošanu mācībās un pakalpojumu sniegšanā.

Kā pārlūkot rīku komplektu

Šis rīku komplekts ir sadalīts divās daļās, atspoguļojot AI divējādo lomu kiberdrošības jomā.

AI kiberaizsardzībā

Kā AI maina kiberaizsardzību visā kiberincidentu dzīves ciklā:

Pirmajā daļā ir aplūkota AI ietekme uz kiberaizsardzību, izklāstot, kā AI rīki atbalsta kiberaizsardzību incidentu novēršanas, gatavības, reaģēšanas un atjaunošanas dzīves ciklā. Tajā izcelti konkrēti lietojumi, piemēram, uzbrukuma virsmas kartēšana, anomāliju atklāšana un droša koda izstrāde, un tie ilustrēti ar gadījumu izpēti un atsaucēm turpmākai izpētei.

AI kibernoziegumos

Kā AI maina kibernoziegumu ķēdi:

Otrajā daļā aplūkota AI ietekme uz kibernoziegumiem, pievēršot uzmanību tam, kā AI pārveido kibernoziegumu ķēdi. Tajā aplūkots, kā AI ļauj uzbrucējiem automatizēt un uzlabot tādus posmus kā izlūkošana, ieroču izmantošana un piegāde, vienlaikus ieviešot jaunus uzbrukuma veidus. Gadījumu piemēri un papildu literatūra sniedz kontekstu, lai izprastu šīs norises.

Terminu glosārijs

Kā jūs varat dot savu ieguldījumu

Vai jūs izmantojat atvērtā koda AI risinājumu, lai apmācītu skolēnus par kiberdrošību, vai arī jums ir citi publiski pieejami resursi, ar kuriem dalīties, lai mācītu par AI un kiberdrošību (neatkarīgi no tā, vai tie ir vai nav balstīti uz AI)?

Mēs labprāt uzklausītu jūs. Lūdzu, rakstiet mums uz e-pasta adresi co*****@vi************.org , mēs dalīsimies ar jūsu ieguldījumu plašākā sabiedrībā un nodrošināsim, ka šis rīku komplekts tiek regulāri atjaunināts.

Paldies, ka pierakstījāties mūsu biļetenam!

Paldies! RSVP saņemts AI in Cybersecurity Toolkit

Mākslīgais intelekts kiberdrošības rīku komplektā

Iekraušana...

Iekraušana...