Kibernetinio saugumo priemonių rinkinys

Kibernetinio saugumo mokytojams skirti ištekliai

Įvadas

Dirbtinis intelektas (AI) sparčiai keičia kibernetinio saugumo sritį - ir kaip gynybos priemonė, ir kaip puolimo ginklas. Švietėjams dėl šio dvigubo vaidmens kyla neatidėliotinas poreikis parengti mokinius ne tik panaudoti AI apsaugai, bet ir suprasti, kaip priešininkai gali jį panaudoti atakoms.

Kalbant apie gynybinę pusę, AI jau yra įdiegta profesionalioje saugumo aplinkoje ir daro įtaką visiems skirtingiems kibernetinių incidentų gyvavimo ciklo etapams (pvz., prevencijai, pasirengimui, reagavimui ir atkūrimui). Ji leidžia atlikti žurnalų analizę, anomalijų aptikimą, kenkėjiškų programų tyrimą ir net informuotumo mokymą, suteikdama gynėjams didesnį greitį, tikslumą ir mastelį. Klasėje AI taip pat atveria naujas mokymo galimybes, nes automatizuoja vertinimus, generuoja atvejų analizes, imituoja realius incidentus ir kuria interaktyvias užduotis, padedančias studentams veiksmingiau suvokti sudėtingas kibernetinio saugumo sąvokas.

Tuo pat metu AI skatina naujos kartos puolamąsias kibernetines operacijas. Piktavaliai naudoja generatyvinį AI ginklą, kad automatizuotų žvalgybą, individualizuotų "phishing" kampanijas, pagreitintų pažeidžiamumų aptikimą arba įdiegtų adaptyvią kenkėjišką programinę įrangą. Ši kibernetinių atakų grandinės transformacija sustiprino atakų visame pasaulyje mastą ir sudėtingumą, pradedant išpirkos reikalaujančiomis programomis ir baigiant giluminėmis klastotėmis bei kenkėjiškomis programomis "swarm". Taigi AI yra ir kibernetinių atakų skatintojas, ir pats tampa priešininkų išnaudojimo taikiniu, o tokie pažeidžiamumai kaip duomenų užnuodijimas ir priešininkų pavyzdžiai kelia naujų pavojų.

Šį priemonių rinkinį parengė Virtual Routes kaip dalį Kibernetinio saugumo seminarų programą remia "Google.org, kad mokytojams ir mokiniams būtų suteikta nuolat besikeičiančios srities išteklių. Ji parengta remiantis dalyvaujančių universitetų apklausa ir joje pateikiama medžiaga, padedanti suprasti AI poveikį kibernetiniam saugumui, pristatant dvejopą jo, kaip gynybinės ir puolamosios priemonės, vaidmenį.

AI poveikis kibernetinio saugumo įgūdžiams

Svetainė Europos kibernetinio saugumo įgūdžių sistema (ECSF) apibrėžiama dvylika pagrindinių kibernetinio saugumo specialistų pareigybių, taip pat užduotys, įgūdžiai, žinios ir kompetencijos, reikalingos šiame sektoriuje. Šie vaidmenys apima įvairias technines funkcijas, pavyzdžiui, grėsmių žvalgybą ir įsiskverbimo testavimą, ir platesnio pobūdžio užduotis, pavyzdžiui, rizikos valdymą ir švietimą. Nustatėme penkis pagrindinius būdus, kuriais AI daro įtaką šiems vaidmenims reikalingiems įgūdžiams ir kompetencijoms:

Duomenų analizė ir grėsmių žvalgyba

ECSF: kibernetinių grėsmių žvalgybos specialistas; skaitmeninės kriminalistikos tyrėjas

LLM gali pagreitinti didelių grėsmių ataskaitų, žurnalų ir kompromitavimo rodiklių kiekių rinkimą, koreliavimą ir apibendrinimą. Analitikai vis dar turi patvirtinti išvadas, tačiau jų dėmesys perkeliamas nuo pasikartojančio analizavimo prie kritiško interpretavimo.

Incidentų aptikimas ir reagavimas į juos

ECSF: atsakiklis į kibernetinius incidentus

"AI" gali padėti aptikti anomalijas, jas ištirti ir pateikti pirmines ataskaitas. Vis svarbesni tampa perspėjimų patvirtinimo, incidentų konteksto analizės ir proporcingo reagavimo įgūdžiai.

Rizikos vertinimas ir atitiktis

ECSF: Kibernetinio saugumo teisės, politikos ir atitikties pareigūnas; kibernetinio saugumo rizikos valdytojas; kibernetinio saugumo auditorius

AI gali palaikyti automatinį neskelbtinų duomenų klasifikavimą ir preliminarų rizikos įvertinimą. Praktikai turi įvertinti, ar AI valdomi rezultatai atitinka reguliavimo ir organizacinius reikalavimus.

Saugus kūrimas ir kodo peržiūra

ECSF: kibernetinio saugumo diegėjas; kibernetinio saugumo architektas; įsiskverbimo testuotojas

AI įgalintas kodo nuskaitymas išryškina nesaugius modelius ir siūlo pataisymus. Specialistai išlieka atsakingi už saugios kodavimo praktikos užtikrinimą ir už AI haliucinacijų ar klaidingai teigiamų rezultatų rizikos sumažinimą, nes AI taip pat gali sukurti nesaugų kodą.

Švietimas ir informuotumas

ECSF: kibernetinio saugumo mokytojas; kibernetinio saugumo tyrėjas

LLM leidžia kurti adaptyvius mokymo scenarijus, sintetinius duomenų rinkinius ir automatinį grįžtamąjį ryšį. Pedagogo įgūdžių rinkinys vystomas siekiant kuruoti, patvirtinti ir atsakingai įtraukti AI išteklius į mokymo programas.

Pagrindinės AI kibernetinio saugumo kompetencijos

Visuotinis AI diegimas reikalauja, kad visi kibernetinio saugumo specialistai, nepriklausomai nuo jų vaidmens, ugdytų naujus įgūdžius, kurie padėtų atsakingai, adaptyviai ir veiksmingai naudoti AI priemones. Šie pagrindiniai AI gebėjimai apima ne tik konkrečių priemonių išmanymą, bet ir pagrindinius gebėjimus, reikalingus efektyviam darbui šioje sparčiai besikeičiančioje aplinkoje:

1. Pamatinis supratimas
  • AI raštingumas suprasti AI galimybes ir apribojimus bei saugiai integruoti jį į darbo eigą be perdėto pasitikėjimo ar klaidingo pasitikėjimo.
  • Etinis sąmoningumas nustatyti riziką, susijusią su šališkumu, privatumu, atskaitomybe ir saugumu, užtikrinant, kad AI sistemos būtų diegiamos taip, kad būtų laikomasi profesinių ir visuomeninių standartų.
2. Vertinimas ir priežiūra
  • Kritinis vertinimas įvertinti AI sukurtus rezultatus pagal patikimus šaltinius ir kontekstines žinias, atpažįstant, kada reikia papildomo patvirtinimo ar žmogaus vertinimo.
  • Paaiškinamumas ir skaidrumas aiškinti AI rezultatus, analizuoti "juodosios dėžės" modelius ir aiškiai perduoti rezultatus techninėms ir ne techninėms suinteresuotosioms šalims, taip stiprinant pasitikėjimą AI remiamais sprendimais.
  • Atsparumas ir žmogaus priežiūra sukurti apsaugos priemones, kurios neleistų pernelyg pasikliauti automatizavimu, užtikrintų patikimas apsaugos priemones ir išsaugotų žmogaus atsakomybę už svarbiausius sprendimus.
3. Rizikos ir duomenų valdymas
  • Duomenų valdymas užtikrinti AI sistemose naudojamų duomenų kokybę, įvairovę ir saugumą, suprantant, kad dėl prasto duomenų valdymo gali atsirasti sisteminių pažeidžiamumų.
  • AI rizikos valdymas numatyti ir sumažinti AI būdingą riziką, pavyzdžiui, haliucinacijas, priešiškas manipuliacijas, nesaugaus kodo generavimą ir duomenų užkrėtimą, įtraukiant šiuos aspektus į platesnes kibernetinės rizikos sistemas.
4. Ateities pritaikomumas
  • Nuolatinis mokymasis atnaujinti įgūdžius, stebėti kylančias grėsmes ir susipažinti su naujovėmis, susijusiomis su AI kibernetinio saugumo taikomosiomis programomis.
  • Mąstymas scenarijais ir prognozavimas numatyti, kaip AI pažanga gali pakeisti techninį, organizacinį ir strateginį kibernetinio saugumo lygmenis, ir parengti specialistus aktyviai reaguoti į būsimus iššūkius.
5. Bendradarbiavimas ir bendravimas
  • Tarpdisciplininis bendradarbiavimas veiksmingai bendradarbiauti su teisės, politikos, psichologijos ir etikos ekspertais, pripažįstant, kad atsakingam AI naudojimui reikalingos ne tik techninės, bet ir kitos perspektyvos.
  • Bendravimas ir pasitikėjimo stiprinimas aiškiau ir suprantamiau paaiškinti AI įgalintus sprendimus, taip išlaikant visų suinteresuotų šalių pasitikėjimą.

AI skatinamas pasikartojančių ar mažesnės vertės užduočių automatizavimas iškėlė neatidėliotinų klausimų dėl darbo jėgos transformacijos ir galimo darbo vietų perkėlimo. Tačiau nors kai kurių analitikų užduočių gali sumažėti, atsiranda naujų reikalavimų, susijusių su AI rezultatų priežiūra, išvadų patvirtinimu ir AI būdingos rizikos, pavyzdžiui, haliucinacijų, nesaugaus kodo generavimo ar priešiškų manipuliacijų, šalinimu. AI ne panaikina kibernetinio saugumo vaidmenis, o keičia įgūdžių profilį, nukreiptą į priežiūrą, valdymą ir bendradarbiavimą tarp žmonių ir AI.

Etiškas ir atsakingas AI naudojimas kibernetinėje gynyboje

Optimizuodama laiką, veiksmingumą ir išteklius, AI leidžia gynėjams padaryti daugiau su mažiau, mažina kliūtis patekti į rinką ir stiprina gebėjimą aptikti vis sudėtingesnes kibernetines grėsmes ir į jas reaguoti. Kibernetinių incidentų mastui ir sudėtingumui didėjant, AI gebėjimas apdoroti didelius duomenų kiekius daro ją nepakeičiamą. Tačiau pernelyg didelis pasikliovimas AI rezultatais sukelia naujų pažeidžiamumų, ypač kai šie rezultatai yra netikslūs arba stokoja kontekstinio supratimo, todėl kyla keletas klausimų dėl etikos ir atsakingo naudojimo:

Pagrindiniai etiniai klausimai

Šališkumas ir diskriminacija
AI modeliai, apmokyti pagal neobjektyvius arba nesubalansuotus duomenų rinkinius, gali nesąžiningai pažymėti tam tikras naudotojų grupes arba regionus kaip kenkėjiškus. Pavyzdžiui, pvz, kibernetinio saugumo tyrėjai mokė įsilaužimų aptikimo sistemą pagal istorinius atakų duomenis. ir nustatė, kad dėl to buvo gauta 30% daugiau klaidingų teigiamų rezultatų, susijusių su nepakankamai atstovaujamų regionų naudotojais, o subalansuotas mokymas davė teisingesnius rezultatus. Panašiai ir AI gali teikti pernelyg didelį prioritetą žinomiems atakų tipams, o nepakankamai įvertinti naujas grėsmes, todėl gali atsirasti gynybos spragų.
Užtikrinti nediskriminacinius rezultatus sprendžiant algoritmų ir duomenų šališkumo problemą.
Stebėsena ir priežiūra
AI grindžiamam saugumui užtikrinti reikia didelio masto tinklo srauto, bandymų prisijungti ir naudotojų elgesio stebėjimo, kurti išsamius skaitmeninius pėdsakus.. Ši nuolatinė priežiūra kelia pavojų. mažina naudotojų pasitikėjimą ir kelia klausimų dėl sutikimo.. Be to, Ilgalaikis duomenų saugojimas padidina pažeidimų tikimybę., ir debesų kompiuterija paremtas apdorojimas didina klausimai dėl tarpvalstybinių duomenų valdymo..
Saugoti asmens ir organizacijos duomenis, gerbti sutikimą ir sumažinti nereikalingą duomenų rinkimą.
Autonominis sprendimų priėmimas ir nenumatytos pasekmės
Automatinės priemonės, pavyzdžiui, paskyros blokavimas, IP blokavimas ar tinklo išjungimas, gali būti nepriimtinos dėl klaidingai teigiamų ar klaidingai neigiamų rezultatų, ypač kai automatiniai sprendimai nėra pakankamai pagrįsti atitinkamomis aplinkybėmis. Kibernetinio saugumo tyrėjų atlikto eksperimento metu, AI pagrįstos sistemos sėkmingai užblokavo 92% grėsmių, tačiau 8% teisėtos veiklos klaidingai pažymėjo kaip kenkėjišką. Dėl tokių klaidų kyla pavojus, kad gali sutrikti svarbiausių paslaugų teikimas, pavyzdžiui, finansų ar sveikatos priežiūros srityse, ir apsunkinama atsakomybė už padarytą žalą.
Išlaikyti žmogaus įtraukimo į ciklą mechanizmus ir aiškiai priskirti atsakomybę už AI nulemtus rezultatus.
AI modelių neskaidrumas
Daugelis AI sistemų veikia kaip "juodosios dėžės", todėl mažai suprantama, kaip jos daro išvadas. Kibernetinio saugumo srityje, dėl šio paaiškinamumo trūkumo analitikams gali būti sunku suprasti, kodėl teisėtas srautas yra pažymėtas arba kodėl tam tikroms grėsmėms teikiama pirmenybė, o tai gali pakenkti pasitikėjimui. ir atidėti veiksmingą reagavimą.
Užtikrinkite, kad AI sprendimų priėmimo procesai suinteresuotosioms šalims būtų aiškūs ir suprantami.
Siekdamos praktiškai įgyvendinti šiuos principus, organizacijos gali pasinaudoti įvairiomis reguliavimo ir techninėmis priemonėmis, kad padidintų AI sistemų patikimumą:
Reguliavimo priemonės apima atitikties sistemas, pvz. ES dirbtinio intelekto aktas (AI aktas), kuriame nustatomi rizika grindžiami įpareigojimai, poveikio pagrindinėms teisėms vertinimai ir atskaitomybės mechanizmai didelės rizikos AI sistemoms. Kitos reguliavimo priemonės apima algoritminio poveikio vertinimus, kuriais siekiama įvertinti riziką prieš diegiant, duomenų apsaugos teisės aktų laikymąsi, pvz. BDAR ir CCPA, ir atskaitomybės sistemos kuriais paskirstoma atsakomybė už su AI susijusias klaidas. Tarptautiniu mastu pripažintų standartų ir sertifikatų kūrimas ir priėmimas yra papildomos atitikties priemonės, kurios padeda įgyvendinti teisinius įsipareigojimus, skatina pasitikėjimą ir tam tikru mastu skatina inovacijas, nes suteikia organizacijoms galimybę eksperimentuoti su produktų kūrimu laikantis iš anksto nustatytų apsaugos priemonių.
Techniniai sprendimai apima sąžiningumą užtikrinančius mašininio mokymosi metodus, šališkumo aptikimo ir mažinimo būdus, privatumo didinimo technologijas, pavyzdžiui, šifravimą ir anonimiškumą, taip pat paaiškinamus AI metodus, kuriais sprendimų priėmimo procesai tampa skaidresni. Žmogaus vykdoma priežiūra ir nuolatinė modelių stebėsena toliau užtikrinti, kad automatizuotos sistemos išliktų tikslios, etiškos ir atitiktų organizacijos bei visuomenės vertybes.

Apklausos metodai ir duomenys

Virtual Routes atliko internetinę apklausą, kurioje dalyvavo 27 pedagogai iš Europos universitetų. Apklausos metu buvo siekiama nustatyti, ar šiuo metu jie naudoja AI dėstydami kibernetinį saugumą, kaip jie jį naudoja, kokios yra to priežastys, kokios konkrečios priemonės ir užduotys yra naudojamos ir ar jie taiko AI teikdami kibernetinio saugumo paramą vietos bendruomenių organizacijoms (LKO). Nors šie atsakymai nėra statistiškai reikšmingi, jie leidžia suprasti dabartinę praktiką ir lūkesčius, išryškina tiek galimybes, tiek iššūkius, susijusius su AI integravimu į kibernetinio saugumo mokymą. Siekiant geriau suprasti praktinio naudojimo atvejus, apklausa buvo papildyta papildomais pokalbiais.

Galima išskirti keletą svarbiausių aspektų:

Ankstyvas, bet vis platesnis AI naudojimas

Iš 27 respondentų dauguma (22) teigė, kad jie jau eksperimentuoja su AI priemonėmis savo mokymo procese, ypač Google.org organizuojamuose kibernetinio saugumo seminaruose. Vis dėlto diegimas dar tik pradedamas ir dažnai apsiriboja tik konkrečiomis užduotimis, o ne sistemingu integravimu. Penki respondentai nurodė, kad jie dar nenaudoja AI.

Įvairūs naudojimo atvejai

Dažniausiai taikomos bendrosios rašymo ir duomenų rinkimo ir analizės užduotys (naudojant bendrus LLM), duomenų sintezė ir specializuotos kibernetinio saugumo užduotys, pavyzdžiui, anomalijų aptikimas, atakos paviršiaus kartografavimas, kenkėjiškų programų analizė ir praktinės laboratorijos.

Priėmimo motyvai

Kibernetinio saugumo mokytojai pirmiausia naudoja AI, kad padėtų mokiniams pasirengti darbui, padėtų savarankiškai mokytis ir savarankiškai vertinti bei sutaupyti laiko pedagoginėms užduotims, pavyzdžiui, pratybų kūrimui, vertinimui ir turinio kūrimui. Daugelis jų taip pat mano, kad AI naudinga naudoti pagrindinėms kibernetinio saugumo sąvokoms ir scenarijams iliustruoti.

Taikymas teikiant bendruomenės paslaugas

Maždaug pusė respondentų (15 iš 27) nurodė, kad jau naudojasi arba planuoja naudotis AI, kad vietos bendruomenių organizacijoms (LKO) teiktų kibernetinio saugumo paramą, kuri yra pagrindinis "Google.org" kibernetinio saugumo seminarų aspektas. Tai rodo, kad vis labiau ryškėja ryšys tarp AI priemonių tyrinėjimo klasėje ir jų taikymo realioje bendruomenėje.

Pedagogų poreikiai ir lūkesčiai

Keli respondentai išreiškė susidomėjimą gauti rekomendacijų ir pavyzdžių, kaip veiksmingai integruoti AI į kibernetinio saugumo mokymą. Jie pabrėžė, kad reikia geriausios praktikos, bendrų išteklių ir pavyzdžių, kad nuo eksperimentų būtų pereita prie labiau struktūruoto ir efektyvaus AI naudojimo mokant ir teikiant paslaugas.

Kaip naršyti priemonių rinkinį

Šį priemonių rinkinį sudaro dvi dalys, atspindinčios dvejopą AI vaidmenį kibernetinio saugumo srityje.

AI kibernetinės gynybos srityje

Kaip AI keičia kibernetinę gynybą per visą kibernetinių incidentų gyvavimo ciklą:

Pirmoje dalyje nagrinėjamas AI poveikis kibernetinei gynybai ir aprašoma, kaip AI įrankiai padeda kibernetinei gynybai per visą incidentų gyvavimo ciklą - prevenciją, pasirengimą, reagavimą ir atkūrimą. Joje išryškinamos konkrečios taikymo sritys, pavyzdžiui, atakos paviršiaus kartografavimas, anomalijų aptikimas ir saugaus kodo kūrimas, ir jos iliustruojamos atvejo tyrimais bei nuorodomis tolesnėms studijoms.

AI kibernetinių nusikaltimų srityje

Kaip AI keičia kibernetinę žudymo grandinę:

Antroje dalyje aptariamas AI poveikis kibernetiniams nusikaltimams, daugiausia dėmesio skiriant tam, kaip AI keičia kibernetinių nusikaltimų grandinę. Nagrinėjama, kaip AI leidžia užpuolikams automatizuoti ir patobulinti tokius etapus, kaip žvalgyba, ginklavimasis ir pristatymas, ir kartu įvesti naujas atakų formas. Atvejų pavyzdžiai ir papildoma literatūra padeda suprasti šiuos pokyčius.

Terminų žodynėlis

Kaip galite prisidėti

Ar naudojate atvirojo kodo AI sprendimą, kad mokinius mokytumėte kibernetinio saugumo, ar turite kitų viešai prieinamų išteklių, kuriais galėtumėte pasidalyti mokydami apie AI ir kibernetinį saugumą (nepriklausomai nuo to, ar jie pagrįsti AI, ar ne)?

Norėtume išgirsti jūsų nuomonę. Rašykite mums el. paštu co*****@vi************.org , mes pasidalinsime jūsų įnašu su platesne bendruomene ir užtikrinsime, kad šis priemonių rinkinys būtų nuolat atnaujinamas.

Dėkojame, kad užsiregistravote mūsų naujienlaiškiui!

Ačiū! Gautas RSVP dėl AI in Cybersecurity Toolkit

Kibernetinio saugumo priemonių rinkinys

Pakraunama...

Pakraunama...