AI kiberaizsardzībā

Kā AI maina kiberaizsardzību visā kiberincidentu dzīves ciklā

Kiberdrošības mērķis ir aizsargāt sistēmas, tīklus un datus pret ielaušanos, traucējumiem vai iznīcināšanu. Portāls kiberincidentu dzīves cikls sniedz noderīgu veidu, kā izprast kiberaizsardzību, sadalot to četros posmos:

  • Profilakse: incidentu riska novēršana un samazināšana, kā arī to iespējamo seku mazināšana.
  • Gatavība: izstrādāt plānus, rīkus un spējas efektīvas reaģēšanas atbalstam.
  • Atbilde: incidenta apturēšana un turpmāku bojājumu novēršana.
  • Atgūšana: ātri atjaunot darbību un panākt normālu vai augstāku drošības līmeni.

 

Mākslīgais intelekts (AI) ir kļuvis aktuāls visos četros posmos. Atšķirībā no tradicionālajiem rīkiem, kas precīzi iederas vienā posmā, daudzas AI iespējas aptver visu dzīves ciklu: tas pats paņēmiens, kas atbalsta sagatavotību, var arī ļaut ātrāk reaģēt vai palīdzēt atveseļoties. Šī integrācija padara AI gan spēcīgu, gan grūti klasificējamu: tā vērtība slēpjas ne tikai atsevišķu uzdevumu uzlabošanā, bet arī vienmērīgākā posmu sasaistē.

Profilakse

Gatavība

Atbildes

Atjaunošana

Uzbrukuma virsmas kartēšana

Kodu skenēšana

Datu apkopošana

Datu klasifikācija

Anomāliju atklāšana

Rakstīšana un analīze

Sintētiskie dati

Identitātes un piekļuves pārvaldība

Identitātes un piekļuves pārvaldība

Žurnāla analīze

Ļaunprātīgās programmatūras analīze

Apmācības un laboratorijas

Apmācības un laboratorijas

Turpmākajās sadaļās mēs aplūkojam konkrētus AI lietojumus kiberaizsardzībai, parādot, kā tie ir saistīti ar dažādām incidentu dzīves cikla fāzēm un daudzos gadījumos aptver vairākas fāzes vienlaicīgi.

Uzbrukuma virsmas kartēšana

Uzbrukuma virsmas kartēšana identificē visus resursus, ieejas punktus un ievainojamības, ko pretinieks varētu izmantot uzbrukumā. Tas nodrošina aizstāvjiem redzamību par viņu apdraudējumu un palīdz noteikt prioritātes, kas jāaizsargā.

Kā AI maina uzbrukuma virsmas kartēšanu:

AI pārveido uzbrukumu virsmas kartēšanu, automatizējot liela mēroga tīklu un resursu skenēšanu, ievērojami samazinot manuālo darbu. Izmantojot uzlabotu modeļu atpazīšanu, tā var atklāt slēptus vai aizmirstus galapunktus, kurus tradicionālās metodes bieži vien palaiž garām. AI sistēmas var nepārtraukti atjaunināt kartes, jo infrastruktūra attīstās, tādējādi samazinot "aklo zonu" skaitu un nodrošinot, ka aizstāvji saglabā precīzu, reāllaika pārskatu par savu vidi.
Profilakse. Samazina risku, pirms uzbrucēji to izmanto.
Gatavība. Uztur atjauninātu pārskatu par infrastruktūru incidentu plānošanai.

Izceltais gadījums: LLM izmantošana aktīvu atklāšanai kritiskajā infrastruktūrā

2025. gadā, Luidži Koppolino un citi publicēts pētījums, kurā parādīts, kā lielie valodas modeļi (LLM) var uzlabot kritisko infrastruktūru aktīvu atklāšanu. Tradicionālie rīki, piemēram, Nmap vai industriālās drošības platformas, vai nu rada risku, ka, veicot aktīvu skenēšanu, tiks traucēta jutīgu sistēmu darbība, vai arī, paļaujoties tikai uz pasīvu uzraudzību, neizdodas atklāt slēptās ierīces.

Pētnieki ierosināja uz LLM balstītu "ekspertu maisījuma" sistēmu, kas apvieno datus no pasīvās satiksmes novērošanas, rūpīgi ierobežotas aktīvās zondēšanas un fizikāliem signāliem, piemēram, elektromagnētiskās emisijas. Pēc tam specializēti LLM aģenti interpretē šos datus: viens no tiem koncentrējas uz rūpnieciskajiem protokoliem, cits - uz IT/OT tīklu ievainojamībām, bet vēl cits - uz sistēmu arhitektūru un atkarībām.

Sistēma var izmantot arī ārējos izlūkošanas avotus (piemēram, MITRE ATT&CK vai CVE datubāzes), lai identificētu trūkumus un ieteiktu drošības pasākumus. Veicot testus simulētā rūpnieciskajā tīklā, tā veiksmīgi klasificēja tādus līdzekļus kā programmējami loģiskie kontrolieri, robotizētas rokas un printeri, vienlaikus norādot uz nedrošu praksi, piemēram, nešifrētu Modbus datu plūsmu.

Šāda pieeja pārvērš uzbrukuma virsmas kartēšanu par adaptīvu un kontekstu apzinātu procesu, kas nodrošina reāllaika redzamību un samazina tradicionālās skenēšanas riskus. Samazinot tehniskos šķēršļus aizstāvjiem, tā ļauj veikt visaptverošāku uzraudzību un stiprina kritiskās infrastruktūras vispārējo drošības stāvokli.

Papildu literatūra

Kodu skenēšana un novērtēšana

Koda skenēšana pārbauda pirmkodu, lai atklātu ievainojamības, nedrošas bibliotēkas vai sliktas drošības prakses, pirms tās var tikt izmantotas.

Kā AI maina kodu skenēšanu un novērtēšanu:

AI paātrina ievainojamību atklāšanu, izceļot nedrošas funkcijas un identificējot riskantus kodēšanas modeļus, kas iegūti, izmantojot iepriekš veiktus ekspluatantus. Tā piedāvā arī automatizētus novēršanas ieteikumus, atbalstot izstrādātājus drošāka koda rakstīšanā un samazinot uzbrucēju iespējas.

Profilakse. Novērš trūkumus, pirms uzbrucēji tos atklāj.
Gatavība. Nostiprina drošības pamatstāvokli, lai nodrošinātu gatavību incidentiem.

Izceltais gadījums: LLM izmantošana koda skenēšanai un drošai izstrādei

2025. gadā, Belozerov et al izpētīja, kā lieli valodas modeļi var atbalstīt drošas kodēšanas praksi. Pētījumā tika veikta ChatGPT testēšana, salīdzinot ar DevGPT datu kopu, kurā bija ietverts reāls izstrādātāju kods un statisko skeneru atzīmētās zināmās ievainojamības. No 32 apstiprinātajām ievainojamībām ChatGPT pareizi atklāja 18 un pat ieteica 17 no tām labojumus.

Rezultāti parāda, kā AI var samazināt manuālo darbu, pārskatot kodu, palīdzēt noteikt riskantus kodēšanas modeļus un sniegt automatizētus novēršanas ieteikumus. Tas var palielināt drošas kodēšanas prakses apjomu un saīsināt laiku, kurā ievainojamības joprojām ir izmantojamas.

Vienlaikus pētījumā tika uzsvērti svarīgi ierobežojumi: ChatGPT reizēm deva pārāk pārliecinošus, bet nepareizus rezultātus, mēģinot veikt labojumus, ieviesa jaunas nepilnības un bija mazāk uzticama nekā statiskā analīze vai ekspertu veikta pārbaude. Galvenais secinājums no šī pētījuma ir tāds, ka AI var būt spēcīgs palīgs koda novērtēšanā, bet tikai tad, ja to apvieno ar tradicionālajiem rīkiem un pienācīgu uzraudzību.

Papildu literatūra

Datu apkopošana

Datu apkopošana koncentrē lielus tehnisko datu apjomus (piemēram, žurnālus, pārskatus un draudu izlūkdatus) pieejamos ieskatos.

Kā AI maina datu apkopošanu:

AI samazina kognitīvo pārslodzi, pārveidojot neapstrādātu un nestrukturētu informāciju par izmantojamu informāciju. Tā var identificēt atkārtojošos modeļus vai anomālijas fragmentētās datu kopās. Tā var arī ģenerēt vienkāršas valodas pārskatus nespeciālistiem. Tādējādi AI atvieglo informācijas lietošanu, komunikāciju un rīcību.

Gatavība. Palīdz apstrādāt draudu izlūkdatus un efektīvāk plānot.
Atbilde. Racionalizē situācijas izpratni reālajā laikā.
Atgūšana. Sagatavo kopsavilkumus un ziņojumus par gūto pieredzi.

Izceltais gadījums: AI žurnālu apkopošanai un situācijas apzināšanai

2024. gadā, Balasubramanian et al iepazīstināja ar CYGENT - sarunu aģentu, kas darbojas ar GPT-3 un spēj analizēt un apkopot sistēmas žurnālus. Tā vietā, lai analītiķiem būtu jāpārlasa tūkstošiem neapstrādātu žurnāla ierakstu, CYGENT tos apkopo īsos, cilvēkam saprotamos rezultātos, kas izceļ galvenos notikumus un anomālijas.

Novērtējumos CYGENT sasniedza labākus rezultātus nekā citi lielie valodas modeļi, veidojot skaidrus un izmantojamus kopsavilkumus. Sistēma samazināja kognitīvo pārslodzi, veicināja situācijas izpratni klātienes incidentu laikā un ļāva ātrāk pieņemt lēmumus.

Šis gadījums ilustrē, kā AI var pārveidot neapstrādātus tehniskos datus par pieejamu izlūkinformāciju. Atvieglojot žurnālu interpretāciju, tas palīdz aizstāvjiem efektīvāk sagatavoties, ātrāk reaģēt un atgūties pēc incidentiem, izmantojot labāku dokumentāciju.

Papildu literatūra

Datu klasifikācija

Datu klasifikācija organizē informāciju atbilstoši tās jutīgumam vai atbilstības prasībām, nodrošinot, ka kritiski svarīgi aktīvi tiek pienācīgi aizsargāti.

Kā AI maina datu klasifikāciju:

AI izmanto dabiskās valodas apstrādi, lai automātiski marķētu sensitīvu saturu un atklātu nepareizi klasificētus vai atklātus datus.

Profilakse. Samazina nejaušu konfidenciālu datu izpaušanu.
Gatavība. Atbalsta atbilstību.

Izceltais gadījums: AI sensitīvu datu klasifikācijai

2024. gadā, De Renzis un citi pētīja, kā lielos valodas modeļus var izmantot, lai uzlabotu sensitīvas informācijas klasifikāciju. Galvenā problēma šajā jomā ir tā, ka privātuma apdraudējuma dēļ apmācībai ne vienmēr var izmantot reālus personas datus. Autori ierosināja radīt sintētiskus mācību datus, kas joprojām atspoguļo sensitīvu kategoriju, piemēram, veselības, politikas vai reliģijas, modeļus.

Viņu pieeja ļāva apmācīt precīzus klasifikatorus, neizpaužot faktiskos lietotāja datus, parādot, kā AI var palīdzēt organizācijām ievērot tādus noteikumus kā GDPR, vienlaikus palielinot to spēju atklāt un aizsargāt sensitīvu informāciju. Šis gadījums parāda, kā AI stiprina gan profilaksi (samazinot nejaušu datu izpaušanu), gan gatavību (atbalstot atbilstības sistēmas). Vienlaikus tas uzsver pārvaldības un validācijas nozīmi, lai nodrošinātu, ka sintētiskie dati un no tiem izrietošie modeļi joprojām ir reprezentatīvi un uzticami.

Papildu literatūra

Galapunktu vai tīkla anomāliju atklāšana

Anomāliju atklāšana uzrauga galapunktus un tīkla datplūsmu, meklējot neparastas darbības, kas var liecināt par kompromitēšanu.

Kā AI maina galapunktu un tīkla anomāliju noteikšanu:

AI mācās, kā izskatās normāla darbība, un atzīmē novirzes, kas varētu liecināt par ļaunprātīgu darbību. Atšķirībā no sistēmām, kas balstītas uz parakstu sistēmu, tā var atklāt smalkāku ielaušanos, kas izvairās no tradicionālās atklāšanas. AI ļauj ātrāk un efektīvāk reaģēt uz incidentiem, piešķirot prioritāti brīdinājumiem un samazinot viltus pozitīvo rezultātu skaitu.

Gatavība. Nosaka normālas darbības pamatlīnijas.
Atbilde. Atklāj anomālijas reāllaikā, lai atzīmētu un ierobežotu uzbrukumus.

Izceltais gadījums: AI izmantošana anomāliju atklāšanai kritiskās sistēmās

2024. gadā, Nwoye un Nwagwughiagwu izpētīja, kā ar AI vadīta anomāliju atklāšana varētu uzlabot kiberaizsardzību galapunktos un tīklos. Izmantojot mašīnmācīšanās modeļus, kas apmācīti, pamatojoties uz normāliem sistēmas uzvedības un tīkla datplūsmas modeļiem, viņu pieeja ļāva identificēt smalkas novirzes, kuras tradicionālās, uz parakstu sistēmām balstītas sistēmas nepamanītu, tostarp, piemēram, agrīnas iekšēju draudu un datu aizsardzības pārkāpumu pazīmes.

Pētījumā tika sniegti piemēri no kritiski svarīgām nozarēm, kas parādīja, ka ar AI iespējota anomāliju atklāšana samazināja reakcijas laiku un palīdzēja saglabāt darbības nepārtrauktību, norādot uz aizdomīgām darbībām, pirms tās radīja nopietnus zaudējumus. Autori atzina arī problēmas, tostarp viltus pozitīvos rezultātus un nepieciešamību pēc pārredzamības sarežģītajos AI modeļos. Šis gadījums parāda, kā AI veicina gan sagatavotību (nosakot normālas darbības bāzes līnijas), gan reaģēšanu (atklājot un piešķirot prioritāti anomālijām reālajā laikā).

Papildu literatūra

Vispārīgi rakstīšanas un datu vākšanas/analīzes uzdevumi.

Aizsardzības operācijas ietver arī plašu rakstīšanu, izpēti un datu analīzi, lai dokumentētu incidentus, informētu par lēmumiem un apmācītu personālu.

Kā AI maina vispārīgos rakstīšanas un datu vākšanas vai analīzes uzdevumus:

AI var sagatavot ziņojumus, politikas un informatīvos ziņojumus par incidentiem, tādējādi atvieglojot analītiķu administratīvo slogu. Tā var automatizēt atklātā avota izlūkdatu vākšanu mācībām, ļaujot studentiem un profesionāļiem koncentrēties uz augstākā līmeņa analīzi un stratēģiju, nevis uz atkārtotiem uzdevumiem.

Atbilde. Atbalsta ātru ziņošanu un situācijas apzināšanu.
Atgūšana. Ļauj veikt rūpīgu dokumentēšanu pēc incidenta un gūtās pieredzes apkopošanu.

Izceltais gadījums: Automatizēta izlūkdatu vākšana un ziņošana

2024. gadā, Gao un citi iepazīstināja ar ThreatKG - AI darbināmu sistēmu, kas automātiski apkopo kiberdraudu izlūkdatus no atvērtiem avotiem, atlasa galvenās vienības, piemēram, dalībniekus un ievainojamības, un sakārto tos strukturētā zināšanu grafikā. Tā vietā, lai analītiķi manuāli lasītu garus, nestrukturētus ziņojumus, sistēma nodrošina konsolidētu un meklēšanai pieejamu pārskatu. Tas samazina aizsardzības operāciju administratīvo slogu, palīdz ātrāk sagatavot incidentu ziņojumus un uzlabo situācijas izpratni aktīvu apdraudējumu laikā. Pārveidojot sadrumstalotu informāciju pieejamās atziņās, ThreatKG ļauj darbiniekiem vairāk laika veltīt interpretācijai un lēmumu pieņemšanai. Pētījums ilustrē, kā AI var pārveidot ikdienas aizsardzības darbu, padarot izlūkdatu vākšanu efektīvāku un izmantojamāku, vienlaikus uzsverot arī nepieciešamību pēc uzraudzības, lai nodrošinātu precizitāti un atbilstību.

Papildu literatūra

Sintētisko datu ģenerēšana

Sintētisko datu ģenerēšana rada mākslīgas datu kopas apmācībai, testēšanai vai simulācijai, neizpaužot sensitīvu reālās pasaules informāciju.

Kā AI maina sintētisko datu ģenerēšanu:

AI var radīt reālistiskus tīkla datplūsmas vai ļaunprogrammatūras paraugus laboratorijas vajadzībām, aizpildīt nepilnības, ja reāli dati nav pieejami, un aizsargāt privātumu, vienlaikus nodrošinot eksperimentus. Tas palīdz izglītotājiem un aizstāvjiem sagatavoties reāliem incidentiem, neriskējot ar sensitīvu datu izpaušanu.

Profilakse. Ļauj droši eksperimentēt, neizpaužot sensitīvu informāciju.
Gatavība. Atbalsta apmācību un simulāciju ar reālām datu kopām.
Atgūšana. Atveido uzbrukuma scenārijus pēcincidentāla testēšanai un uzlabošanai.

Izceltais gadījums: GAN izmantošana drošu un reālistisku mācību datu iegūšanai

2022. gadā, Nukavarapu et al izstrādāja MirageNet - sistēmu, kas izmanto ģeneratīvos negatīvos tīklus (GAN), lai radītu reālistisku sintētisko tīkla datplūsmu. Sistēma var atdarināt DNS un citu protokolu datplūsmas modeļus tā, lai tie ļoti līdzinātos reālās pasaules datiem, taču neizpaužot sensitīvu informāciju no reāliem tīkliem.

Šī inovācija ir svarīga, jo aizsardzības un izglītības darbiniekiem bieži vien ir nepieciešami reāli dati apmācībai, testēšanai un eksperimentiem, taču privātuma vai drošības apsvērumu dēļ tie ne vienmēr var izmantot operatīvo datplūsmu. MirageNet nodrošina drošas simulācijas, kas sagatavo analītiķus reāliem uzbrukumiem, vienlaikus novēršot informācijas izpaušanas riskus. AI un šajā gadījumā GAN izmantošana ļauj veikt drošākus un mērogojamākus eksperimentus. Tajā pašā laikā joprojām ir svarīgi apstiprināt, ka sintētiskie dati patiesi atspoguļo reālos darbības apstākļus, nodrošinot, ka apmācība un testēšana joprojām ir uzticama.

Papildu literatūra

Identitātes un piekļuves pārvaldība (IAM)

Identitātes un piekļuves pārvaldība (IAM) nodrošina, ka tikai autorizētiem lietotājiem ir atbilstoša piekļuve sistēmām un resursiem.

Kā AI maina identitātes un piekļuves pārvaldību:

AI stiprina IAM, atklājot anomālus pieteikšanās modeļus, kas var liecināt par ļaunprātīgu pilnvaru izmantošanu, iesakot adaptīvas autentifikācijas politikas un automatizējot regulārās pārbaudes. Incidentu laikā tā var ātri atzīmēt kompromitētus kontus un iedarbināt stingrākas kontroles, lai ierobežotu draudus.

Profilakse. Nodrošina stingrāku autentifikāciju un samazina nesankcionētu piekļuvi.
Atbilde. Pielāgojas reāllaikā, ja ir aizdomas par ļaunprātīgu pilnvaru izmantošanu.

Izceltais gadījums: Neparastas un neatbilstošas piekļuves atklāšana

2024. gadā, Pārdošana veica koncepcijas pārbaudi par AI piemērošanu IAM sistēmām. Integrējot anomāliju atklāšanas modeli reāli darbojošā IAM platformā, sistēma spēja atzīmēt neparastu pieteikšanās uzvedību un neatbilstošas piekļuves privilēģijas. Šī pieeja ļauj organizācijām ātrāk atklāt kompromitētus kontus vai iekšējās informācijas ļaunprātīgu izmantošanu un dinamiski pielāgot autentifikācijas politikas, kad tiek atklāti riski. Pētījumā tika konstatēts nepārprotams efektivitātes pieaugums, vienlaikus uzsverot, ka joprojām ir nepieciešama cilvēka uzraudzība, lai interpretētu atzīmētās anomālijas un izvairītos no nevajadzīgiem traucējumiem. Tāpēc AI ļauj stiprināt ikdienas piekļuves kontroli un var pārvērst IAM par adaptīvāku un proaktīvāku aizsardzības līniju.

Papildu literatūra

Žurnāla analīze

Lai atklātu, izmeklētu un izprastu incidentus, tiek analizēti sistēmas un drošības žurnāli.

Kā AI maina žurnālu analīzi:

AI var apstrādāt milzīgus žurnālu apjomus reālajā laikā, izcelt neparastas notikumu secības un ģenerēt kodolīgus kopsavilkumus. Tas uzlabo atklāšanu un ļauj ātrāk veikt mācības un incidentu simulācijas.

Gatavība. Izveido bāzes līnijas un identificē iespējamos vājos punktus.
Atbilde. Paātrina izmeklēšanu un atbalsta incidentu apstrādi reālajā laikā.
Atgūšana. Informē par pēcincidentu pārskatiem un ziņojumiem.

Izceltais gadījums: AI aģenti žurnālu analīzei un draudu modeļu atklāšanai

2025. gadā, Karaarslan et al pārbaudīja, kā AI aģenti varētu palīdzēt analizēt plašos Cowrie medus punktu ģenerētos žurnālus. Honeypots apzināti imitē neaizsargātas sistēmas, lai piesaistītu uzbrucējus, taču rezultātā tiek iegūts milzīgs neapstrādātu datu apjoms, kuru interpretēt ir grūti cilvēka analītiķiem.

Pētnieki parādīja, ka AI aģenti var automātiski analizēt un apkopot šos žurnālus, iegūstot atkārtojošos uzbrukumu modeļus un ģenerējot kodolīgus ziņojumus. Šī automatizācija samazina manuālo darbu, uzlabo situācijas izpratni un ļauj aizsargiem ātrāk noteikt tendences un pielāgot drošības pasākumus. Pētījums ilustrē, kā AI var pārvērst neapsaimniekojamas datu kopas par izmantojamu izlūkinformāciju, vienlaikus uzsverot nepieciešamību rūpīgi pārbaudīt rezultātus, lai netiktu nepareizi saprasta mainīga vai maldinoša pretinieku taktika.

Papildu literatūra

Ļaunprātīgās programmatūras analīze

Ļaunprātīgās programmatūras analīzē tiek pētīta ļaunprātīga programmatūra, lai izprastu tās uzvedību, izcelsmi un iespējamo ietekmi.

Kā AI maina ļaunprātīgas programmatūras analīzi:

AI paātrina klasifikāciju, identificējot kodu līdzības starp ļaunprogrammatūru ģimenēm un ģenerējot smilšu kastes izpildes skaidrojumus. Tas palīdz analītiķiem ātri saprast, kā darbojas ļaunprogrammatūra, palīdzot ātrāk reaģēt un efektīvāk mazināt kaitējumu.

Atbilde. Paātrina ļaunprātīgas programmatūras identificēšanu un ierobežošanu.
Atgūšana. Veicina zināšanu uzkrāšanu turpmākai aizsardzībai.

Izceltais gadījums: AI atbalstīta ļaunprātīgas programmatūras demontāža

2025. gadā, Apvrille un Nakov novērtēja R2AI, AI spraudni Radare2 disassemblerim, ar jaunākajiem Linux un IoT ļaunprogrammatūras paraugiem. Sistēma integrē LLM reversās inženierijas procesā, palīdzot analītiķiem dekompilēt funkcijas, pārdēvēt mainīgos un identificēt aizdomīgu uzvedību. Viņu pētījums parādīja, ka AI palīdzība var samazināt analīzes laiku no vairākām dienām līdz aptuveni pusei, vienlaikus saglabājot tādu pašu vai labāku kvalitāti nekā analīzei, ko veic tikai cilvēks. Piemēram, Linux/Devura ļaunprogrammatūras gadījumā AI pareizi noteica argumentu formātus, kurus analītiķi nebija pamanījuši. Tomēr saglabājās ierobežojumi: modeļi reizēm radīja halucinācijas, pārspīlējumus vai izlaidumus, un tiem bija nepieciešama pastāvīga kvalificētu ekspertu validācija. Rezultāti liecina, ka AI asistētā demontāža ir visefektīvākā kā spēka reizinātājs, paātrinot šķirošanu un ātrāk atklājot detaļas, vienlaikus joprojām paļaujoties uz cilvēka uzraudzību, lai nodrošinātu precizitāti un izvairītos no nepareizas interpretācijas.

Papildu literatūra

Apmācības un laboratorijas

Apmācības un laboratorijas nodrošina kontrolētu vidi praktiskiem kiberdrošības vingrinājumiem un simulācijām.

Kā AI maina apmācību un laboratorijas:

AI var ģenerēt dinamiskus laboratorijas scenārijus, kas pielāgoti izglītojamā progresam, izveidot adaptīvus dažādas grūtības pakāpes uzdevumus un automatizēt atgriezenisko saiti un novērtēšanu. Tas nodrošina reālistiskāku un mērogojamu apmācību.

Gatavība. Stiprina gatavību, izmantojot adaptīvas simulācijas.
Atgūšana. Mācībās iekļauj reālu incidentu pieredzi.

Izceltais gadījums: Ar AI darbināmi kibermērķlaukumi adaptīvām mācībām

2025. gadā, Sisodiya et aliepazīstināja ar AI darbināmu kiberdrošības diapazonu, kas paredzēts, lai uzlabotu kiberdrošības mācību reālismu un efektivitāti. Atšķirībā no tradicionālajām statiskajām laboratorijām platforma izmanto AI, lai pielāgotu scenāriju sarežģītību atkarībā no apmācāmā progresa, ieviestu reālistiskus uzbrukumu notikumus un nodrošinātu automātisku atgriezenisko saiti.

Pētījumā tika konstatēts, ka šajā vidē apmācītie skolēni sasniedza augstāku noteikšanas precizitāti un samazināja ietekmes mazināšanas laiku salīdzinājumā ar parastajām pieejām. Pedagogiem šī sistēma ļauj paplašināt vingrinājumus, personalizēt uzdevumus un simulācijās iekļaut mācības no reāliem incidentiem.

No tehniskā viedokļa pētījums arī parādīja, ka hibrīdās arhitektūras, kurās apvienota mākoņa mērogojamība un fizisko sistēmu uzticamība, nodrošina reālistiskākus un adaptīvākus scenārijus. Secinājumos uzsvērts, kā AI var pārveidot mācības no fiksētām mācībām par dinamisku mācību vidi, kas labāk sagatavo studentus un profesionāļus reāliem kiberdraudiem.

Papildu literatūra

Diskusijas jautājumi

Bibliogrāfija

Alzu'bi, Ahmad, Omar Darwish, Amjad Albashayreh un Yahya Tashtoush. "Kiberuzbrukumu notikumu žurnālu klasifikācija, izmantojot dziļo mācīšanos ar semantisko pazīmju analīzi". Datori un drošība 150 (2025. gada marts): 104222. https://doi.org/10.1016/j.cose.2024.104222. 

Ammara, Dure Adan, Jianguo Ding un Kurt Tutschku. "Sintētisko tīkla datplūsmas datu ģenerēšana: A Comparative Study". arXiv:2410.16326. 2. versija. Preprint, arXiv, 2025. gada 22. februāris. https://doi.org/10.48550/arXiv.2410.16326. 

Balasubramanian, Prasasthy, Justin Seby un Panos Kostakos. "CYGENT: A Cybersecurity Conversational Agent with Log Summarization Powered by GPT-3". arXiv:2403.17160. Preprint, arXiv, 2024. gada 25. marts. https://doi.org/10.48550/arXiv.2403.17160. 

Coppolino, Luigi, Antonio Iannaccone, Roberto Nardone un Alfredo Petruolo. "Asset Discovery in Critical Infrastructures: An LLM-Based Approach". Elektronika 14, Nr. 16 (2025): 3267. https://doi.org/10.3390/electronics14163267. 

Gao, Peng, Xiaoyuan Liu, Edward Choi, Sibo Ma, Xinyu Yang un Dawn Song. "ThreatKG: An AI-Powered System for Automated Open-Source Cyber Threat Intelligence Gathering and Management". arXiv:2212.10388. Preprint, arXiv, 2024. gada 30. oktobris. https://doi.org/10.48550/arXiv.2212.10388. 

Geiger, Alexander, Dongyu Liu, Sarah Alnegheimish, Alfredo Cuesta-Infante un Kalyan Veeramachaneni. "TadGAN: Time Series Anomaly Detection Using Generative Adversarial Networks". arXiv:2009.07769. Preprint, arXiv, 2020. gada 14. novembris. https://doi.org/10.48550/arXiv.2009.07769. 

Ghioni, Riccardo, Mariarosaria Taddeo un Luciano Floridi. "Open Source Intelligence and AI: A Systematic Review of the GELSI Literature" ("Atklātā pirmkoda izlūkdati un AI: sistemātisks GELSI literatūras pārskats"). Ai un sabiedrība, 2023. gada 28. janvāris, 1-16. https://doi.org/10.1007/s00146-023-01628-x. 

Humran, Hael Abdulhakim Ali un Ferdi Sonmez. 'Code Vulnerability Detection Across Different Programming Languages with AI Models'. arXiv:2508.11710. Preprint, arXiv, 2025. gada 14. augusts. https://doi.org/10.48550/arXiv.2508.11710. 

Karaarslan, Enis, Esin Güler, Efe Emir Yüce un Cagatay Coban. "Towards Log Analysis with AI Agents: Cowrie Case Study". arXiv:2509.05306. Preprint, arXiv, 2025. gada 22. augusts. https://doi.org/10.48550/arXiv.2509.05306. 

Nebebebe, Betelhem, Pavlina Kröckel, Romarick Yatagha, Natasha Edeh un Karl Waedt. "AI aizstāvji: Machine Learning Driven Anomaly Detection in Critical Infrastructures". Gesellschaft für Informatik e.V., 2024, 1917-27. https://dl.gi.de/handle/20.500.12116/45143. 

Nukavarapu, Santosh Kumar, Mohammed Ayyat un Tamer Nadeem. "MirageNet - uz GAN balstīta sistēma sintētiskās tīkla satiksmes ģenerēšanai". GLOBECOM 2022 - 2022. gada IEEE Globālā komunikāciju konference, IEEE, 4 decembris 2022, 3089-95. https://doi.org/10.1109/GLOBECOM48099.2022.10001494. 

Nwoye, Chukwujekwu Charles un Stephen Nwagwughiagwu. "AI vadīta anomāliju noteikšana proaktīvai kiberdrošībai un datu aizsardzības pārkāpumu novēršanai". Starptautiskais inženierzinātņu tehnoloģiju pētniecības un vadības žurnāls 8, Nr. 11 (2024): 339-56. 

Ogundairo, Obaloluwa un Peter Broklyn. Dabiskās valodas apstrāde kiberdrošības incidentu analīzei. 2024. 

Peng, Wei, Junmei Ding, Wei Wang un citi: "CTISum: A New Benchmark Dataset For Cyber Threat Intelligence Summarization". arXiv:2408.06576. Preprint, arXiv, 2025. gada 30. jūnijs. https://doi.org/10.48550/arXiv.2408.06576. 

Perrina, Filippo, Francesco Marchiori, Mauro Conti un Nino Vincenzo Verde. "AGIR: Kibernoziegumu izlūkošanas ziņojumu automatizēšana ar dabiskās valodas ģenerēšanu". arXiv:2310.02655. Preprint, arXiv, 2023. gada 4. oktobris. https://doi.org/10.48550/arXiv.2310.02655. 

Petrolini, Michael, Stefano Cagnoni un Monica Mordonini. "Sensitīvu datu automātiska noteikšana, izmantojot uz transformatoriem balstītus klasifikatorus". Nākotnes internets 14, nr. 8 (2022): 228. https://doi.org/10.3390/fi14080228. 

Rani, Nanda, Bikash Saha, Vikas Maurya un Sandeep Kumar Shukla. "TTPXHunter: TTPs from Finished Cyber Threat Reports": "Actionable Threat Intelligence Extraction as TTPs from Finished Cyber Threat Reports". Digitālie draudi: Pētniecība un prakse 5, nr. 4 (2024): 1–19. https://doi.org/10.1145/3696427. 

Rodriguez, David, Sarah Lee, Joshua Wilson un Sadis Bello. AI nodrošināts IAM audits anomāliju atklāšanai kritiskajā infrastruktūrā. 2025. gada 18. aprīlis. 

Pārdošana, Felix. "Identitātes un piekļuves pārvaldības pilnveidošana, izmantojot mākslīgo intelektu anomāliju atklāšanai: A Proof of Concept Implementation Study". 2024. 

Xu, Shengzhe, Manish Marwah, Martin Arlitt un Naren Ramakrishnan. "STAN: Synthetic Network Traffic Generation with Generative Neural Models". arXiv:2009.12740. Preprint, arXiv, 2021. gada 3. augusts. https://doi.org/10.48550/arXiv.2009.12740. 

Yang, Ziqi un Zhenkai Liang. "Automatizēta sensitīvu datu identificēšana no netiešās lietotāja specifikācijas". Kiberdrošība 1, nr. 1 (2018): 13. https://doi.org/10.1186/s42400-018-0011-x.

Paldies, ka pierakstījāties mūsu biļetenam!

Paldies! RSVP saņemts AI kiberaizsardzībā

AI kiberaizsardzībā

Iekraušana...

Iekraušana...