AI kibernoziegumos
Kā AI maina kibernoziegumu ķēdi
Ofensīvas kiberoperācijas ir apzinātas darbības, kas tiek veiktas kibertelpā, lai iekļūtu pretinieka sistēmās, sagrautu vai iznīcinātu tās, cenšoties sasniegt stratēģiskus mērķus. Parasti tās tiek veidotas, izmantojot Kibernētiskā nogalināšanas ķēde, sistēmu, ko sākotnēji izstrādāja Lockheed Martin. Šī sistēma iedala uzbrukumu strukturētā posmu secībā, izsekojot pretinieka progresu no sākotnējās izlūkošanas līdz galīgajām darbībām, kas tiek veiktas, lai sasniegtu mērķus (piemēram, datu noplūde vai datu iznīcināšana).
2
2
Bruņošanās
Izmantošanas iespēju savienošana ar aizmugurējām durvīm, lai izveidotu piegādājamu komerckravu
Piegāde
Ieroču komplekta piegāde upurim, izmantojot e-pastu, tīmekli, USB u. c.
3
3
4
4
Izmantošana
Vājās vietas izmantošana, lai upura sistēmā izpildītu kodu.
Uzstādīšana
Ļaunprātīgas programmatūras instalēšana aktīvā
5
5
6
6
Vadība un kontrole (C2)
Komandu kanāls attālinātai manipulācijai ar upuri
Darbības saistībā ar mērķiem
Izmantojot piekļuvi ar "Hands on Keyboard", iebrucēji sasniedz savus sākotnējos mērķus.
7
7
Pēdējos gados ir palielinājies gan uzbrukuma kiberoperāciju apjoms, gan sarežģītība. Globālo kiberuzbrukumu skaits ne tikai strauji pieaug, bet arī dažādojas to veidi.: 2022. gadā, 27% globālo kiberuzbrukumu pamatā bija izspiešana, 21% - aizmugurējie vārti, bet 17% - izpirkuma maksa.. Mākslīgajam intelektam (AI) ir liela nozīme šajā pastiprināšanās un diversifikācijas procesā, ļaujot izmantot jaunus uzbrukumu veidus, piemēram, "deepfakes" vai "swarm malware", vienlaikus stiprinot tradicionālos vektorus, piemēram, pikšķerēšanu vai ievainojamību izmantošanu. Saskaņā ar Finanšu direktoru globālā aptauja, pārsteidzoši 85% kiberdrošības speciālistu uzbrukumu skaita pieaugumu saista ar ģeneratīvo AI ieroču izmantošanu. Bengalūras pilsētā Indijā valsts ziņojums apstiprināja šo tendenci: 2025. gada sākumā 80% pikšķerēšanas e-pasta vēstuļu bija AI.
AI pārveido pašu kibernoziegumu ķēdi, un tam ir potenciāls uzlabot katru kiberuzbrukumu kampaņu posmu.. Ātrums un mērogs, kādā AI pārveido šo ķēdi, ir kļuvis par aktuālu valsts drošības problēmu.
Šajā rīku komplektā īpaša uzmanība pievērsta AI kā uzbrukumu veicinātājam, pētot, kā tas pārveido dažādus kibernoziegumu ķēdes posmus.
Izlūkošana
Uzbrucējs ievāc informāciju par mērķi, piemēram, informāciju par darbiniekiem, e-pasta vēstules vai sistēmas datus, lai plānotu uzbrukumu.
Kā AI maina izlūkošanu:
Izceltais gadījums: ChatGPT kā izlūkošanas palīgs
2024. gadā, kiberdrošības pētniece Sheetal Tamara publicēts raksts, kurā demonstrēts, kā lieli valodas modeļi, piemēram, ChatGPT, var ievērojami paātrināt uzbrukuma izlūkošanas fāzi. Tā vietā, lai stundām ilgi rakstītu skriptus un manuāli vāktu atklātā avota izlūkdatus, pētnieks izmantoja, piemēram, īsu sarunu pamācību sēriju: "Uzskaitiet visus apakšdomēnus, ko varat atrast examplecompany.com", "Apkopojiet uzņēmuma tīkla topoloģiju, pamatojoties uz publiski pieejamo informāciju" un "Nosakiet, kādas operētājsistēmas un pakalpojumi, visticamāk, darbojas šajos serveros".
Dažu minūšu laikā modelis izveidoja noderīgu izlūkošanas materiālu, tostarp:
- ar mērķa uzņēmumu saistīto domēnu un apakšdomēnu sarakstu.
- iespējamie IP adrešu diapazoni
- piezīmes par SSL/TLS konfigurācijām, iespējamiem atvērtajiem portiem un kopīgiem pakalpojumiem.
- publiski pieejamu informāciju par darbiniekiem (no LinkedIn un preses relīzēm), ko varētu izmantot spear-phishing.
Ja OSINT datu vākšanai parasti būtu nepieciešamas vairākas stundas vai dienas manuāla darba, eksperimenta laikā šis uzdevums tika samazināts līdz sarunvalodas darbplūsmai, kas prasīja daudz mazāk tehnisku zināšanu. Tāpēc pētījums uzsver, kā ģeneratīvie modeļi var samazināt šķēršļus automatizētai izlūkošanai, un tas nepārprotami ietekmē aizsardzības praksi un draudu modelēšanu.
-
Automatizēti skenēšanas rīki - "AI izmantošana kiberuzbrukumos - salīdzinošs pētījums par AI darbināmiem rīkiem ofensīvai drošībai" (Annis & Hamoudeh 2025)
Salīdzinošais pētījums parāda, kā automatizētie rīki (piemēram, WebCopilot, Sublist3r, RustScan+Nmap) paātrina tīkla skenēšanu un apakšdomēnu uzskaitīšanu. Rezultāti parāda, kā AI varētu vēl vairāk automatizēt uzbrukuma uzdevumus, piemēram, uzbrukuma scenāriju simulēšanu un dinamisku pielāgošanos aizsardzībai, paverot ceļu pilnībā automatizētām uzbrukuma drošības operācijām. -
AI instrumenti izlūkošanai - "AI uzbrukuma draudi organizācijām" (Mirsky et al. 2023)
Apsekojumā izcelti 32 agresīvi AI rīki, kuros izmanto dziļo mācīšanos, pastiprināto mācīšanos un NLP, lai automatizētu ieejas punktu noteikšanu, personāžu veidošanu un mērķa atlasi. Šie rīki uzlabo OSINT, ļauj reālistiski atdarināt pikšķerēšanas datus un ļauj pat nepieredzējušiem uzbrucējiem plānot un īstenot ietekmīgākas kampaņas. -
Informācijas vākšana un automātiska izmantošana - "Bruņots AI kiberuzbrukumiem" (Yamin et al. 2021)
Pētījumā ir izpētīti nesenie kiberuzbrukumi, kuros izmantotas uz AI balstītas metodes, un noteiktas atbilstošas riska mazināšanas stratēģijas. Tajā izcelti dažādi AI rīki (piemēram, GyoiThon, Deep Exploit), kas var palīdzēt apkopot datus par sistēmu, iespējamiem mērķiem un aizsardzības pasākumiem.
Bruņošanās
Uzbrucējs izmanto izlūkošanas laikā atklāto informāciju, lai izveidotu vai pielāgotu ļaunprātīgu kravnesību (piemēram, ļaunprātīgu programmatūru vai ekspluatantus) un izmantotu mērķa vājās vietas.
Kā AI maina bruņojuma izmantošanu:
AI racionalizē ļaunprātīgas ielādes izveidi un pielāgošanu, ģenerējot vai modificējot kodu un testējot variantus pret atklāšanas modeļiem. Tādējādi var radīt diskrētākas, adaptīvākas un mērķtiecīgākas kaitīgās slodzes, tostarp polimorfus variantus, kas maina savu izskatu pēc katras izpildes. Adversariālo testēšanu var izmantot, lai pirms izvietošanas pilnveidotu lietderīgās slodzes.
Izceltais gadījums: AI ģenerēta ļaunprātīgas programmatūras pilinātājs savvaļā
2024. gadā, kiberdrošības analītiķi identificēja pikšķerēšanas kampaņu, kas sākotnēji šķita parasta: virkne e-pasta vēstuļu, kurās tika izplatīta parastā ļaunprātīgas programmatūras ielāde. Tomēr, rūpīgāk pārbaudot dropperi (t. i., nelielu programmu, kas atbild par primārās ļaunprogrammatūras instalēšanu un aktivizēšanu), atklājās neparasta iezīme.
Kroplītes struktūra un sintakse liecināja, ka tā ir radīta, izmantojot lielo valodas modeli, nevis to ir veidojis programmētājs, kas ir tās autors. Lai gan tas darbojās kā vienkāršs wrapper, AI radītais dropper bija gan izsmalcināts, gan efektīvs, demonstrējot spēju izvairīties no tradicionālajām atklāšanas metodēm. Tas veiksmīgi apēja pamata pretvīrusu signatūras un piegādāja ļaunprātīgu programmatūru, kā bija paredzēts.
Šis atklājums bija viens no pirmajiem apstiprinātajiem gadījumiem, kad AI ģenerēts ļaunprātīgs kods tika izvietots brīvā dabā. Lai gan pamatā esošā ļaunprātīgā programmatūra nebija jaunums, tas, ka daļa ieroču izgatavošanas procesa tika uzticēta AI, bija nozīmīgs pavērsiens. Tas parādīja, kā uzbrucēji var paplašināt darbības, samazināt izstrādes izmaksas un ātrāk pielāgoties, vienlaikus apgrūtinot atklāšanas un reaģēšanas pasākumus.
-
AI pastiprināta polimorfā ļaunprātīga programmatūra - "Polimorfā AI ļaunprogrammatūra: reālās darbības pārbaude un atklāšana" (Itkin 2025) (Itkin 2025)
Šajā rakstā ir ierosināts ar AI darbināmas polimorfiskas ļaunprogrammatūras, kas dinamiski pārraksta savu kodu izpildes laikā, lai izvairītos no atklāšanas, koncepcijas pierādījums, kas izveidots kā taustiņlīdzeklis, kurš ģenerē aizsegtas ielādes katrai izpildei. -
Lieli valodas modeļi koda ģenerēšanai - "Lieli valodas modeļi koda ģenerēšanai: A Comprehensive Survey of Challenges, Techniques, Evaluation, and Applications" (Huynh & Lin 2025).
Pētījumā parādīts, kā LLM (piemēram, CodeLlama, Copilot) var automātiski ģenerēt izpildāmo kodu no dabiskās valodas, tādējādi samazinot barjeru ļaunprātīgas programmatūras radīšanai, ļaunprātīgas izmantošanas iespēju izstrādei un uzbrucēju veiktai kaitīgās slodzes pielāgošanai. -
AI radītas jaunas aizsegšanas metodes - "ADVERSARIALuscator: An Adversarial-DRL Based Obfuscator and Metamorphic Malware SwarmGenerator" (Sewak et al. 2021) (Sewak et al. 2021)
Rakstā ir aprakstīts ADVERSARIALuscator, AI, kas var automātiski pārrakstīt ļaunprātīgas programmatūras kodu, lai radītu daudzas versijas un katru reizi izskatītos citādi, lai izvairītos no drošības sistēmu atklāšanas. Veicot testus, aptuveni trešdaļa šo variantu spēja apiet uzlabotas drošības sistēmas. -
AI vadīta "vibrāciju kodēšanas" ļaunprātīga programmatūra - "Hakeri izmanto AI, lai analizētu draudu izlūkošanas ziņojumus un "vibrējošu kodu" ļaunprātīgu programmatūru." (Kelly 2025)
Šajā ziņu rakstā drošības pētnieki ziņoja, ka hakeri izmanto ģeneratīvo AI, lai lasītu un interpretētu draudu izlūkošanas ziņojumus un pēc tam automātiski radītu darboties spējīgu ļaunprātīgu programmatūru. Šī metode, ko dēvē par "vibrācijas kodēšanu", pārvērš cilvēka lasāmo analīzi kodā, ļaujot pretiniekiem ātri pārvērst publiskus kiberdrošības pētījumus ekspluatējamos rīkos.
Piegāde
Uzbrucējs sāk uzbrukumu, nosūtot mērķim ļaunprātīgu ielādi, bieži vien izmantojot pikšķerēšanas e-pasta vēstules, viltotas vietnes vai nedrošus tīklus.
Kā AI maina piegādi:
AI pielāgo un nosaka piegādes mehānismus, lai maksimāli palielinātu panākumus. Tā automatizē pārliecinoša pikšķerēšanas satura, reāllaika viltojumu, adaptīvu tērzēšanas mijiedarbību un reālistisku krāpniecisku tīmekļa lapu ģenerēšanu, kā arī izmanto izlūkošanas datus, lai izvēlētos optimālo piegādes brīdi un kanālu. Tas samazina vajadzību pēc cilvēka prasmēm kampaņu izpildē.
Izceltais gadījums: Deepfake CEO krāpšana uzņēmumā Arup
2024. gadā darbinieki Apvienotās Karalistes inženiertehniskais uzņēmums Arup saņēma, šķiet, likumīgu videozvanu no sava reģiona izpilddirektora. Izpilddirektors steidzami lūdza pārskaitīt līdzekļus saistībā ar konfidenciālu darījumu. Persona uz ekrāna ar ievērojamu precizitāti atdarināja izpilddirektora izskatu, balsi un manieres.
Patiesībā zvanītājs nebija izpilddirektors, bet gan ar AI starpniecību radīta viltus persona, kas bija paredzēta, lai reāllaikā imitētu viņu. Pārliecināti par mijiedarbības autentiskumu, darbinieki autorizēja virkni pārskaitījumu par gandrīz 25 miljoniem ASV dolāru.
Šis incidents ir viens no lielākajiem reģistrētajiem gadījumiem, kad kiberuzbrukuma piegādes fāzē ar AI starpniecību tika veikta sociālā inženierija. Tas parāda, ka pikšķerēšana vairs nav atkarīga no slikti sagatavotiem e-pastiem vai apšaubāmām saitēm. Tā vietā AI tagad ļauj izmantot ļoti reālistiskas audio un video imitācijas, kas apiet ne tikai tehniskās kontroles, bet arī cilvēka vērtējumu un uzticēšanos.
-
LLM sociālās inženierijas un pikšķerēšanas jomā - "LLM izpēte ļaunprogrammatūras atklāšanai: (Al-Karaki & Khan 2024).
Rakstā aprakstīts, kā LLM var izmantot, lai automatizētu pikšķerēšanas saturu, ģenerētu polimorfas ļaunprātīgas programmatūras un veidotu pretinieku ievaddatus. -
AI darbināta sociālā inženierija - "Krāpšanas ēna: The Emerging Danger of AI-powered Social Engineering and its Possible Cure" (Yu et al. 2024) (Yu et al. 2024).
Apsekojumā parādīts, kā difūzijas modeļi un LLM padara pikšķerēšanu un atdarināšanu personalizētāku un pārliecinošāku. Tajā AI iespējotā sociālā inženierija iedalīta "3E fāzēs" (paplašināšanās, bagātināšanās, parādīšanās), uzsverot, kā uzbrucēji var paplašināt kampaņas, ieviest jaunus vektorus un izmantot jaunus draudus, padarot ļaunprātīgas kravnesības piegādi efektīvāku. -
AI ģenerēta balss krāpšana / pikšķerēšana - "Es apkrāpju savu banku" (Hoover 2025)
Žurnālistu eksperiments, kas atklāj AI ģenerētu viltus balsi, ko izmanto, lai apkrāptu bankas kontus.
Izmantošana
Uzbrucējs iedarbina komerckravu, lai izmantotu ievainojamību un iegūtu neatļautu piekļuvi mērķa sistēmai. Pēc iekļūšanas organizācijā uzbrucējs izmanto šo piekļuvi, lai pārvietotos starp sistēmām, atrodot attiecīgo informāciju (piemēram, sensitīvus datus, papildu ievainojamības, e-pasta serverus u. c.) un kaitētu organizācijai.
Kā AI maina ekspluatāciju:
AI palīdz uzbrucējiem identificēt, izprast un izmantot sistēmas vājās vietas, automatizējot ievainojamību atklāšanu (piemēram, inteliģentu fuzzing un vadītu skenēšanu), konstruējot uzbrukumu kokus un piedāvājot izmantošanas ceļus. Tas var arī ģenerēt pretinieku ievaddatus, kas apiet drošības rīkus vai izmanto aizsardzības līdzekļus.
Izceltais gadījums: Morris II AI tārps
2024. gadā, pētnieki tika demonstrēts jauns pašizplatīšanās tārpa veids, kas nebija balstīts uz tradicionālo programmatūras ievainojamību izmantošanu. Tā vietā tas bija vērsts pret pašām ģeneratīvajām AI sistēmām.
Nosaukts Morris II atsaucoties uz bēdīgi slaveno 1988. gada "Morris Worm", šajā koncepcijas pierādījuma uzbrukumā tika izmantoti pretinieku pamudinājumi, lai manipulētu ar AI modeļiem, lai tie reproducētu un izplatītu ļaunprātīgas instrukcijas. Kad sistēma bija "inficēta", tārps varēja autonomi ģenerēt turpmākus pamudinājumus, kas pamudināja AI replicēt uzbrukumu un pārsūtīt to citiem modeļiem.
Atšķirībā no tradicionālajiem tārpiem, kas parasti izmanto neaizpildītu kodu, Morris II izplatīšanos, izmantojot ģeneratīvās AI uzvedības atvērtību un neparedzamību. Demonstrējumā tika uzsvērts, ka, organizācijām arvien vairāk iekļaujot ģeneratīvo AI operatīvajās darba plūsmās, tās var atklāt jaunas uzbrukuma virsmas, kurās ievainojamība slēpjas nevis pirmkodā, bet gan mācību datos un modeļa reakcijās.
-
Pretrunīgi un uzbāzīgi AI - "AI izmantošana uzbrukumiem: Par mijiedarbību starp pretinieku AI un uzbrūkošo AI" (Shröer & Pajola 2025) (Shröer & Pajola 2025)
Pētījumā izklāstīts, kā uzbrucēji var izmantot AI sistēmu ievainojamības, izmantojot pretinieku ievaddatus, vai arī izmantot pašu AI, lai efektīvāk izmantotu ieročus pret tradicionālajiem mērķiem, uzsverot AI kā rīka un mērķa divējādo lomu kiberuzbrukumos. -
Ļaunprātīgas ļaunprātīgas programmatūras binārās kopijas - "Pretinieku ļaunprogrammatūras binārās kopijas: (Kolosnjarski et al. 2018) (Kolosnjarski et al. 2018): "Izvairīšanās no dziļās mācīšanās ļaunprogrammatūras atklāšanai izpildāmajās datnēs" (Kolosnjarski et al. 2018)
Pētījumā parādīti uz gradientu balstīti uzbrukumi, kas modificē mazāk nekā 1% baitu izpildāmajos failos, vienlaikus saglabājot funkcionalitāti un veiksmīgi apejot ļaunprogrammatūras detektorus, kas apmācīti uz neapstrādātiem baitiem.
Uzstādīšana
Uzbrucējs instalē ļaunprātīgu programmatūru vai aizmugurējos vārtus, lai saglabātu (slēptu) pastāvīgu piekļuvi un kontroli mērķsistēmā.
Kā AI maina uzstādīšanu:
AI var izstrādāt adaptīvas noturības metodes un, analizējot iepriekšējo posmu datus, ieteikt visefektīvākos uzstādīšanas vektorus, taču pilnīga niansēta, smaga lēmumu pieņemšanas posma automatizācija joprojām ir ierobežota. Ja AI tiek izmantots, AI ļauj ļaunprogrammatūrai mainīt uzvedību, lai izvairītos no atklāšanas, un izvēlēties optimālu laiku un iekļūšanas punktus.
Izceltais gadījums: Izspiešanas programmatūra, kas iemācās slēpties
2024. gadā, pētnieki ieviesa sistēmu, kas pazīstama kā EGAN, AI modelis, kas izstrādāts, lai izpētītu, kā izspiedējvīrusu programmatūra varētu izmantot mācīšanās stratēģijas, lai izvairītos no atklāšanas. Atšķirībā no tradicionālās statiskās ļaunprātīgās programmatūras, kas vai nu tiek identificēta, vai arī netiek pamanīta, EGAN darbojās, veicot atkārtotus eksperimentus.
Sistēma atkārtoti modificēja izpircēju programmatūras kodu, testējot vairākus variantus, līdz tika izveidots tāds, kas spēja apiet pretvīrusu aizsardzību, vienlaikus saglabājot pilnu funkcionalitāti. Faktiski ļaunprogrammatūra "iemācījās", kā apiet uz anomālijām balstītus atklāšanas mehānismus, kas parasti efektīvi identificē aizdomīgu rīcību.
Lai gan tas ir radīts pētniecības vidē, EGAN parādīja, kā AI vadītie noturības mehānismi var ievērojami apgrūtināt izspiedējvīrusu atklāšanu un izskaušanu pēc to izvietošanas. Tā vietā, lai izvairītos no iepriekš noteiktām izvairīšanās metodēm, ļaunprogrammatūra dinamiski pielāgojās, tādējādi radot gandrīz "nenogalināmas" ļaunprātīgas programmatūras izredzes.
-
Uz RL balstīta ļaunprātīgas programmatūras apiešana - "Mācīšanās izvairīties no statiskās PE mašīnmācīšanās ļaunprogrammatūras modeļiem, izmantojot pastiprinājuma mācīšanos" (Anderson et al. 2018)
Pētījumā parādīts, kā pastiprinātas mācīšanās aģenti var iteratīvi modificēt Windows PE ļaunprogrammatūru, veicot izmaiņas, kas saglabā funkcionalitāti, lai izvairītos no statiskiem mašīnmācīšanās ļaunprogrammatūras detektoriem, tādējādi ļaujot pilnībā melnā kastē adaptīvi instalēt noturīgu ļaunprogrammatūru.
Vadība un kontrole
Pēc vairāku sistēmu kontroles iegūšanas uzbrucējs izveido vadības centru, lai tās izmantotu attālināti. Uzbrucējs izveido attālinātu saziņu ar apdraudēto sistēmu, izmantojot dažādus kanālus (piemēram, tīmekli, DNS vai e-pastu), lai kontrolētu darbības un izvairītos no atklāšanas. Uzbrucējs izmanto dažādus paņēmienus, piemēram, aizsegšanu, lai slēptu savas pēdas un izvairītos no atklāšanas, vai pakalpojuma atteikuma (DoS) uzbrukumus, lai novērstu drošības speciālistu uzmanību no patiesajiem mērķiem.
Kā AI maina komandvadību un kontroli (C2):
AI nodrošina slepenāku C2 komunikāciju, ģenerējot likumīgas darbības imitējošu datplūsmu, izstrādājot izvairīgus domēnu ģenerēšanas algoritmus un organizējot decentralizētus, adaptīvus botnetus. Tā var arī pielāgot C2 uzvedību, lai izvairītos no anomāliju detektoriem.
Izceltais gadījums: AI-koordinēti botnetu tīkli, bari ar savu prātu
2023. gadā, pētnieki demonstrēja jauna veida botnetu, ko darbina AI. Parastie robottīkli parasti balstās uz centrālo vadības un kontroles (C2) serveri, caur kuru viens centrs izdod norādījumus, kurus pēc tam izpilda apdraudētās mašīnas jeb "roboti". Tomēr šo arhitektūru bieži vien var izjaukt, tiklīdz aizstāvji identificē un atslēdz centrālo serveri.
AI iespējotais botnets izmantoja citu modeli. Katrs tīkla mezgls izmantoja pastiprinājuma mācīšanos, lai autonomi noteiktu, kad sākt uzbrukumus, kurus mērķus vajāt un kā pielāgot taktiku, reaģējot uz aizsardzības pasākumiem. Tā vietā, lai gaidītu centralizētus norādījumus, roboti sadarbojās decentralizēti, darbojoties kā pašorganizējošs strops.
Šāda konstrukcija padarīja botnetu elastīgāku un grūtāk atklājamu. Pat ja daži mezgli tiktu neitralizēti, pārējie varētu pielāgoties un turpināt darboties. Aizsargu uzdevums vairs nebija tikai viena servera darbības pārtraukšana, bet gan vajadzēja cīnīties pret izkliedētu, adaptīvu kompromitēto iekārtu roju.
-
Uz AI balstīta žurnālu viltošana un izsekojumu slēpšana - "5 metodes, kā novērst kriminālistikas pārkāpumus, lai apmānītu izmeklētājus (+ piemēri un atklāšanas padomi)" (CyberJunkie 2023)
2024.-2025. gada ziņojumos aprakstīts, kā AI var izmantot, lai dzēstu vai mainītu digitālos žurnālus, tādējādi slēpjot uzbrukumus no izmeklētājiem, lai gan reāli piemēri joprojām ir reti. -
Uz GAN balstītu tīkla ielaušanās atklāšanas sistēmu apiešana - "Uzbrukums! Adversarial Attacks to bypass a GAN based classifier trained to detect Network intrusion" (Piplai et al. 2020)
Pētījumā parādīts, kā ar GAN apmācītas ielaušanās atklāšanas sistēmas var veiksmīgi apiet GAN uzbrukumus, ļaujot uzbrucējiem maskēt C2 datplūsmu kā normālu tīkla darbību.
Rīcība saistībā ar mērķiem
Uzbrucējs izpilda savu galīgo mērķi, piemēram, datu noplūdi, datu šifrēšanu vai datu iznīcināšanu.
Kā AI maina rīcību mērķu sasniegšanai:
AI paātrina un pilnveido uzbrukuma pēdējos uzdevumus: automatizētu datu eksfiltrāciju, augstas vērtības aktīvu prioritāšu noteikšanu, pielāgotu izspiešanas ziņojumu sūtīšanu un plaša mēroga satura ģenerēšanu dezinformācijai vai traucējumiem. Lai pieņemtu galīgos stratēģiskos lēmumus, bieži vien joprojām ir nepieciešams cilvēka vērtējums, taču AI saīsina ceļu līdz šiem lēmumiem.
Izceltais gadījums: PromptLocker, AI vadīta izspiedējvīrusa orķestrācija.
2024. gadā, Ņujorkas Universitātes pētnieki ieviesa PromptLocker, konceptuāla izpirkuma maku sistēma, ko kontrolē liels valodas modelis. Atšķirībā no parastās izspiedējvīrusu programmatūras, kas seko iepriekš noteiktai uzvedībai, PromptLocker pieņēma lēmumus reāllaikā un automatizēja vairākus uzbrukuma dzīves cikla posmus. Demonstrējumā modelis autonomi:
- izvēlējās visvērtīgākos mērķus kompromitētajā sistēmā,
- pirms šifrēšanas izfiltrēt sensitīvus datus, tādējādi palielinot ietekmi uz upuriem,
- šifrētus sējumus un failus, lai liegtu piekļuvi.
- ģenerēja pielāgotus izpirkuma pieprasījumus, pielāgojot to toni un prasības upura profilam (piemēram, finansiālajām iespējām un nozarei).
Lai gan darbs tika veikts kontrolētā pētniecības vidē, PromptLocker ilustrēja, kā ģeneratīvais AI var automatizēt un paplašināt uzdevumus, kuru plānošanai iepriekš bija nepieciešams cilvēks, tādējādi paātrinot uzbrucēju spēju sasniegt savus mērķus un pielāgoties mainīgajiem apstākļiem.
-
AI radītā dezinformācija - "Prokrieviski orientēta dezinformācijas kampaņa izmanto bezmaksas AI rīkus, lai veicinātu satura eksploziju" (Gilbert 2025)
Rakstā skaidrots, kā ar Krieviju saistītā kampaņa "Operation Overload" (2023-2025) izmanto AI rīkus, lai masveidā radītu viltotus attēlus, videoklipus un sabiedrībā pazīstamu personu balss klonētus klipus. Šis materiāls tiek plaši izplatīts, izmantojot robotu tīklus sociālajos plašsaziņas līdzekļos, lai virzītu šķeļošus naratīvus. -
AI izveidoti viltus sociālie profili, lai tos pastiprinātu - "Viltotu sociālo mediju profilu ar AI ģenerētām sejām raksturojums un izplatība" (Yang et al. 2024).
Izmeklēšanā tika atklāts, ka vairāk nekā 1400 Twitter kontu izmanto AI ģenerētus profila attēlus, kas ir organizēti tīklos, lai veicinātu krāpšanu un politiski angažētus ziņojumus, un tūkstošiem šādu kontu ir aktīvi katru dienu. -
AI radīti viltus dokumenti un ziņu portāli (psyops) - "Krievija pati sev stāsta melus, kurus propagandisti vērš pret Rietumiem, bet maldina arī Kremli" (Rid 2024)
Rakstā skaidrots, kā turpinājās dublieru kampaņa, kuras laikā tika radītas pārliecinošas leģitīmu ziņu vietņu viltotas versijas un publicēti AI ģenerēti raksti, lai veicinātu prokrievisku naratīvu izplatīšanu Rietumos.
Diskusijas jautājumi
- Kuru no kibernoziegumu ķēdes posmiem AI nākotnē varētu pārveidot visvairāk, un kāpēc? Un kurā posmā šobrīd AI uzbrucējiem sniedz visdaudzsološākos rezultātus? Kurā posmā AI ieviešana šķiet mazāk efektīva un daudzsološa?
- Vai AI priekšrocības kibertelpā ir vairāk vērstas uz uzbrucējiem vai aizstāvjiem?
- Vai plaša piekļuve AI izlīdzinās konkurences apstākļus amatieriem, vai arī galvenokārt dos lielākas iespējas labi nodrošinātiem pretiniekiem?
- Kā AI spēja automatizēt un paātrināt kiberuzbrukumu ķēdi maina kiberuzbrukumu būtību?
- Vai AI varētu padarīt uzbrukumus tik ātrus un pielāgojamus, ka tradicionālās aizsardzības sistēmas kļūs novecojušas?
- Kas ir atbildīgs par to, ka AI modeļi tiek ļaunprātīgi izmantoti kiberuzbrukumiem: izstrādātāji, izvietotāji vai uzbrucēji?
- Kā politikas veidotāji var regulēt uzbrukuma AI, neapgrūtinot inovācijas aizsardzības vai civilajos lietojumos?
- Vai AI veicinās kiberkonfliktu virzību uz autonomāku, "mašīna pret mašīnu" karadarbību?
- Vai AI varētu būtiski mainīt kibernoziegumu ķēdes modeli, padarot to par kaut ko nelineāru un nepārtraukti pielāgojamu?