AI kibernetinių nusikaltimų srityje
Kaip "AI" keičia kibernetinę žudymo grandinę
Puolamosios kibernetinės operacijos - tai kibernetinėje erdvėje vykdomi sąmoningi veiksmai, kuriais siekiama įsiskverbti į priešininko sistemas, sutrikdyti jų veikimą arba jas sunaikinti siekiant strateginių tikslų. Dažniausiai jos vykdomos per Kibernetinė žudymo grandinė, sistemą, kurią iš pradžių sukūrė "Lockheed Martin". Pagal šią sistemą ataka suskirstoma į struktūrizuotą etapų seką, pagal kurią stebima priešininko veikla nuo pradinės žvalgybos iki galutinių veiksmų, kurių imamasi siekiant tikslų (pvz., duomenų išviešinimo ar sunaikinimo).
2
2
Ginklavimasis
Iššūkio ir galinių durų sujungimas į pristatomą naudingąją apkrovą
Pristatymas
ginkluoto paketo pristatymas aukai el. paštu, internetu, per USB ir pan.
3
3
4
4
Išnaudojimas
pažeidžiamumo išnaudojimas siekiant vykdyti kodą aukos sistemoje
Įrengimas
Kenkėjiškos programinės įrangos diegimas į turtą
5
5
6
6
Valdymas ir kontrolė (C2)
Komandų kanalas, skirtas nuotoliniu būdu manipuliuoti auka
Su tikslais susiję veiksmai
Naudodamiesi prieiga "Rankos ant klaviatūros" įsilaužėliai pasiekia savo pirminius tikslus
7
7
Pastaraisiais metais puolamųjų kibernetinių operacijų apimtis ir sudėtingumas išaugo. Pasaulinių kibernetinių atakų ne tik smarkiai daugėja, bet ir įvairėja jų rūšys.: 2022 m, 27% pasaulinių kibernetinių atakų buvo pagrįstos išviliojimu, 21% - galinėmis durimis, o 17% - išpirkos reikalaujančiomis programomis.. Dirbtinis intelektas (AI) vaidina svarbų vaidmenį šiame didėjančiame ir įvairėjančiame puolime, suteikdamas galimybę naujoms atakų formoms, tokioms kaip "deepfakes" ar "swarm" kenkėjiška programinė įranga, ir kartu stiprindamas tradicinius vektorius, tokius kaip "phishing" ar pažeidžiamumo išnaudojimas. Pasak Pasaulinė finansų direktorių apklausa, stulbinantis 85% kibernetinio saugumo specialistų skaičius atakų augimą sieja su generatyvinių AI ginklų naudojimu. Bengalūro mieste, Indijoje valstybės ataskaita patvirtino šią tendenciją: 2025 m. pradžioje 80% sukčiavimo el. laiškų buvo AI.
AI keičia pačią kibernetinio nužudymo grandinę ir turi potencialas sustiprinti kiekvieną puolimo kibernetinių kampanijų etapą.. Greitis ir mastas, kuriuo AI keičia šią grandinę, tapo svarbiu nacionalinio saugumo klausimu.
Šiame priemonių rinkinyje daugiausia dėmesio skiriama būtent AI, kaip atakų skatinimo priemonei, ir nagrinėjama, kaip ji keičia skirtingus kibernetinio nužudymo grandinės etapus.
Žvalgyba
Užpuolikas renka informaciją apie taikinį, pavyzdžiui, darbuotojų duomenis, el. laiškus ar sistemos duomenis, kad galėtų suplanuoti ataką.
Kaip AI keičia žvalgybą:
Atvejis, į kurį atkreiptas dėmesys: ChatGPT kaip žvalgybos asistentas
2024 m, kibernetinio saugumo tyrėja Sheetal Tamara paskelbė straipsnį, kuriame demonstruojama, kaip dideli kalbos modeliai, tokie kaip ChatGPT, gali labai pagreitinti atakos žvalgybos etapą. Užuot valandų valandas praleidęs rašydamas scenarijus ir rankiniu būdu rinkdamas atvirojo šaltinio žvalgybos informaciją, tyrėjas naudojo trumpas pokalbių užuominų serijas, pvz: "Išvardykite visus subdomenus, kuriuos galite rasti svetainėje examplecompany.com", "Apibendrinkite įmonės tinklo topologiją, remdamiesi viešai prieinama informacija" ir "Nustatykite, kokios operacinės sistemos ir paslaugos greičiausiai veikia šiuose serveriuose".
Per kelias minutes modelis pateikė naudingos žvalgybinės medžiagos, įskaitant:
- domenų ir subdomenų, susijusių su tiksline įmone, sąrašą.
- tikėtini IP adresų intervalai
- pastabos apie SSL/TLS konfigūracijas, galimus atvirus prievadus ir įprastas paslaugas.
- viešą darbuotojų informaciją (iš "LinkedIn" ir pranešimų spaudai), kuri gali būti naudojama "spear-phishing".
Jei OSINT rinkimui paprastai prireiktų kelių valandų ar dienų rankinio darbo, eksperimento metu užduotis buvo sumažinta iki pokalbio, kuriam reikėjo kur kas mažiau techninių žinių. Todėl šis tyrimas pabrėžia, kaip generatyviniai modeliai gali sumažinti automatizuotos žvalgybos barjerą, o tai turi aiškią reikšmę gynybos praktikai ir grėsmių modeliavimui.
-
Automatinės skenavimo priemonės - "AI panaudojimas kibernetinių atakų metu - lyginamasis AI įrankių, skirtų puolimo saugumui, tyrimas" (Annis & Hamoudeh 2025)
Lyginamasis tyrimas rodo, kaip automatinės priemonės (pvz., "WebCopilot", "Sublist3r", "RustScan+Nmap") pagreitina tinklo skenavimą ir subdomenų išvardijimą. Rezultatai rodo, kaip AI galėtų dar labiau automatizuoti puolimo užduotis, pavyzdžiui, imituoti atakų scenarijus ir dinamiškai prisitaikyti prie gynybos priemonių, atveriant kelią visiškai automatizuotoms puolimo saugumo operacijoms. -
AI žvalgybos priemonės - "Puolamojo AI grėsmė organizacijoms" (Mirsky et al. 2023)
Apžvalgoje išskiriamos 32 puolamos AI priemonės, naudojančios gilųjį mokymąsi, mokymąsi pastiprinant ir NLP, kad būtų automatizuotas patekimo taškų aptikimas, asmenų kūrimas ir taikinių atranka. Šie įrankiai pagerina OSINT, leidžia sukurti tikroviškus gilius falsifikatus sukčiavimui ir leidžia net nepatyrusiems įsilaužėliams planuoti ir vykdyti veiksmingesnes kampanijas. -
Informacijos rinkimas ir automatinis naudojimas - "Ginkluotas AI kibernetinėms atakoms" (Yamin et al. 2021)
Tyrime nagrinėjamos naujausios kibernetinės atakos, kurių metu buvo naudojami AI pagrįsti metodai, ir nustatomos atitinkamos poveikio mažinimo strategijos. Išskiriamos įvairios AI priemonės (pvz., GyoiThon, Deep Exploit), kurios gali padėti surinkti duomenis apie sistemą, galimus taikinius ir gynybos priemones.
Ginklavimasis
Užpuolikas naudoja žvalgybos metu gautą informaciją, kad sukurtų arba pritaikytų kenkėjišką naudingąjį krūvį (pvz., kenkėjišką programinę įrangą arba išnaudojimo įrankius) ir pasinaudotų taikinio silpnosiomis vietomis.
Kaip AI keičia ginklavimąsi:
"AI" supaprastina kenkėjiškų naudingųjų krūvių kūrimą ir derinimą generuojant ar modifikuojant kodą ir testuojant variantus pagal aptikimo modelius. Taip galima sukurti diskretiškesnius, adaptyvesnius ir tikslingesnius naudinguosius krūvius, įskaitant polimorfinius variantus, kurie keičia savo išvaizdą kiekvieno vykdymo metu. Priešiškas testavimas gali būti naudojamas siekiant patobulinti naudinguosius krūvius prieš juos paleidžiant.
Atvejis, į kurį atkreiptas dėmesys: AI sukurtos kenkėjiškos programinės įrangos lašintuvas laisvėje
2024 m, kibernetinio saugumo analitikai nustatė sukčiavimo kampaniją, kuri iš pradžių atrodė įprasta: elektroninių laiškų serija, kurioje platinamas įprastas kenkėjiškos programinės įrangos krovinys. Tačiau atidžiau apžiūrėjus lašintuvą (t. y. nedidelę programą, atsakingą už pirminės kenkėjiškos programos įdiegimą ir aktyvinimą) paaiškėjo neįprasta savybė.
Iš lašintuvo struktūros ir sintaksės galima spręsti, kad jis buvo sukurtas naudojant didelės kalbos modelį, o ne sukurtas žmogaus programuotojo. Nors jis veikė kaip paprastas apvalkalas, AI sukurtas lašintuvas buvo ir ištobulintas, ir veiksmingas, rodantis gebėjimą išvengti tradicinių aptikimo metodų. Jis sėkmingai apėjo pagrindinius antivirusinius parašus ir pristatė kenkėjišką programinę įrangą taip, kaip buvo numatyta.
Šis atradimas buvo vienas iš pirmųjų patvirtintų AI sukurto kenkėjiško kodo diegimo atvejų. Nors pagrindinė kenkėjiška programinė įranga nebuvo nauja, tai, kad dalis ginklų kūrimo proceso buvo perduota "AI", buvo reikšmingas pokytis. Tai parodė, kaip užpuolikai gali padidinti operacijų mastą, sumažinti kūrimo išlaidas ir greičiau prisitaikyti, kartu apsunkindami aptikimo ir reagavimo pastangas.
-
AI sustiprinta polimorfinė kenkėjiška programinė įranga - "Polimorfinė AI kenkėjiška programinė įranga: (Itkin 2025)
Straipsnyje siūlomas polimorfinės kenkėjiškos programinės įrangos su AI varikliu, dinamiškai perrašančios savo kodą vykdymo metu, kad būtų išvengta aptikimo, koncepcijos įrodymas, sukurtas kaip klaviatūros registratorius, kuris generuoja užšifruotus naudinguosius krūvius per kiekvieną vykdymą. -
Dideli kalbos modeliai kodui generuoti - "Didelės kalbos modeliai kodui generuoti: Huynh & Lin 2025).
Apžvalgoje parodyta, kaip LLM (pvz., "CodeLlama", "Copilot") gali automatiškai generuoti vykdomąjį kodą iš natūralios kalbos, taip sumažindami kenkėjiškų programų kūrimo, išnaudojimo galimybių kūrimo ir naudingojo krūvio pritaikymo užpuolikams kliūtis. -
AI sukurti nauji obfuskavimo metodai - "ADVERSARIALUI": An Adversarial-DRL Based Obfuscator and Metamorphic Malware SwarmGenerator" (Sewak et al. 2021)
Straipsnyje pristatoma ADVERSARIALuscator - AI, kuri gali automatiškai perrašyti kenkėjiškos programinės įrangos kodą, kad būtų sukurta daug versijų ir kiekvieną kartą atrodytų skirtingai, taip išvengiant saugumo sistemų aptikimo. Atlikus bandymus, maždaug trečdalis šių variantų sugebėjo apeiti pažangias apsaugos sistemas. -
AI valdomos "vibe-coding" kenkėjiškos programos - "Įsilaužėliai naudoja AI grėsmių žvalgybos ataskaitoms ir kenkėjiškoms programoms "vibruojančio kodo" išnarplioti" (Kelly 2025)
Šiame naujienų straipsnyje saugumo tyrėjai pranešė, kad įsilaužėliai naudoja generatyvinį AI, kad perskaitytų ir interpretuotų grėsmių žvalgybos ataskaitas ir automatiškai sukurtų veikiančią kenkėjišką programinę įrangą. Šis metodas, pavadintas "vibe-coding", verčia žmogaus skaitomas analizes į kodą, todėl priešininkai gali greitai panaudoti viešuosius kibernetinio saugumo tyrimus ir paversti juos išnaudojimo priemonėmis.
Pristatymas
Užpuolikas ataką pradeda perduodamas kenkėjišką naudingąjį krūvį taikiniui, dažnai naudodamasis apgaulingais el. laiškais, suklastotomis svetainėmis arba nesaugiais tinklais.
Kaip AI keičia pristatymą:
"AI" pritaiko ir laiko pristatymo mechanizmus, kad būtų pasiekta kuo didesnė sėkmė. Ji automatizuoja įtikinamo apgaulingo turinio, realiuoju laiku veikiančių giluminių klastočių, adaptyvių pokalbių sąveikų ir tikroviškų apgaulingų tinklalapių kūrimą ir naudoja žvalgybos duomenis, kad pasirinktų optimalų pristatymo momentą ir kanalą. Tai sumažina žmogaus įgūdžių poreikį vykdant kampanijas.
Atvejis, į kurį atkreiptas dėmesys: "Deepfake CEO" sukčiavimas bendrovėje "Arup
2024 m. JK inžinerijos įmonė "Arup sulaukė, kaip atrodė, teisėto vaizdo skambučio iš savo regiono vyriausiojo vykdomojo pareigūno. Vadovas skubiai paprašė pervesti lėšas, susijusias su konfidencialiu sandoriu. Asmuo ekrane itin tiksliai atkartojo generalinio direktoriaus išvaizdą, balsą ir manieras.
Iš tikrųjų skambino ne vadovas, o per AI sukurtas "deepfake", skirtas imituoti jį realiuoju laiku. Įsitikinę sąveikos autentiškumu, darbuotojai leido atlikti beveik 25 milijonų JAV dolerių pervedimus.
Šis incidentas yra vienas didžiausių užregistruotų atvejų, kai kibernetinės atakos pristatymo etape buvo naudojama AI socialinė inžinerija. Jis rodo, kad sukčiavimui nebereikia prastai parengtų el. laiškų ar abejotinų nuorodų. Vietoj to, AI dabar leidžia naudoti labai tikroviškus garso ir vaizdo apsimetinėjimus, kurie apeina ne tik technines kontrolės priemones, bet ir žmogaus vertinimą bei pasitikėjimą.
-
LLM, skirti socialinei inžinerijai ir sukčiavimui dideliu mastu - "LLM tyrimas kenkėjiškos programinės įrangos aptikimui: Al-Karaki ir Khan 2024).
Straipsnyje aprašoma, kaip LLM gali būti naudojami automatizuojant apgaulingą turinį, kuriant polimorfinę kenkėjišką programinę įrangą ir kuriant priešininkų įvestis. -
AI paremta socialinė inžinerija - "Sukčiavimo šešėlis: Kylantis AI valdomos socialinės inžinerijos pavojus ir galimas jo gydymas" (Yu et al. 2024) (Yu et al. 2024)
Tyrime parodyta, kaip sklaidos modeliai ir LLM padeda suasmeninti ir įtikinti sukčiavimą ir apsimetinėjimą. Jame AI įgalinta socialinė inžinerija suskirstyta į "3E fazes" (Enlarging, Enriching, Emerging), pabrėžiant, kaip įsilaužėliai gali išplėsti kampanijas, įdiegti naujus vektorius ir išnaudoti naujas grėsmes, todėl kenkėjiškų krovinių pristatymas tampa veiksmingesnis. -
AI generuojamas sukčiavimas balsu / sukčiavimas apgaule - "Apgavau savo banką" (Hoover 2025)
Žurnalistų eksperimentas, atskleidžiantis AI generuojamą giliai suklastotą balsą, naudojamą banko sąskaitoms apgauti.
Išnaudojimas
Užpuolikas paleidžia naudingąjį krūvį, kad pasinaudotų pažeidžiamumu ir įgytų neteisėtą prieigą prie tikslinės sistemos. Įsiskverbęs į organizaciją, užpuolikas, naudodamasis šia prieiga, juda iš vienos sistemos į kitą, kad rastų svarbios informacijos (pvz., slaptų duomenų, papildomų pažeidžiamumų, el. pašto serverių ir t. t.) ir pakenktų organizacijai.
Kaip AI keičia išnaudojimą:
"AI" padeda įsilaužėliams nustatyti, suprasti ir išnaudoti sistemos silpnąsias vietas, automatizuojant pažeidžiamumų nustatymą (pvz., išmanųjį "fuzzing" ir vadovaujamąjį nuskaitymą), sudarant atakų medžius ir siūlant išnaudojimo būdus. Jis taip pat gali generuoti priešiškus įvesties duomenis, kuriais apeinamos saugumo priemonės arba išnaudojamos apsaugos priemonės.
Atvejis, į kurį atkreiptas dėmesys: Morris II AI kirminas
2024 m, tyrėjai pademonstravo naują savaime plintančio kirmino formą, kuri nesiremia įprastinių programinės įrangos pažeidžiamumų išnaudojimu. Vietoj to jis taikėsi į pačias generatyvines AI sistemas.
Pavadinimas Morisas II atsižvelgiant į garsųjį 1988 m. "Morris Worm", šioje koncepcijos įrodymo atakoje buvo naudojami priešiški raginimai manipuliuoti AI modeliais, kad šie atgamintų ir platintų kenkėjiškas instrukcijas. Kai sistema buvo "užkrėsta", kirminas galėjo savarankiškai generuoti tolesnes užuominas, kurios paskatino AI atkartoti ataką ir perduoti ją kitiems modeliams.
Skirtingai nuo tradicinių kirminų, kurie paprastai naudojasi neištaisytu kodu, Morisas II plinta pasinaudojant generatyvinės AI elgsenos atvirumu ir nenuspėjamumu. Demonstracijoje buvo pabrėžta, kad organizacijoms vis dažniau įtraukiant generatyvinį AI į operacines darbo eigas, gali atsirasti naujų atakos paviršių, kurių pažeidžiamumas slypi ne išeities kode, o mokymo duomenyse ir modelio atsakymuose.
-
Priešiškas ir puolamasis AI - "AI išnaudojimas atakoms: Apie priešiško AI ir puolamojo AI sąveiką" (Shröer & Pajola 2025)
Tyrime aprašoma, kaip įsilaužėliai gali išnaudoti AI sistemų pažeidžiamumą, naudodami priešiškus duomenis, arba panaudoti pačią AI, kad galėtų efektyviau išnaudoti tradicinius taikinius, pabrėžiant dvejopą AI, kaip kibernetinių atakų įrankio ir taikinio, vaidmenį. -
Kenkėjiškos kenkėjiškos programinės įrangos dvejetainės programos - "Priešiškos kenkėjiškos programinės įrangos dvejetainės programos: (Kolosnjarski et al. 2018): "Giluminio mokymosi išvengimas siekiant aptikti kenkėjiškas programas vykdomosiose programose" (Kolosnjarski et al. 2018)
Tyrime demonstruojamos gradientu pagrįstos atakos, kurių metu pakeičiama mažiau nei 1% baitų vykdomosiose bylose, išsaugant jų funkcionalumą ir sėkmingai išvengiant giliojo mokymosi kenkėjiškų programų detektorių, apmokytų pagal neapdorotus baitus.
Įrengimas
Užpuolikas įdiegia kenkėjišką programinę įrangą arba užkardas, kad išsaugotų (paslėptą) nuolatinę prieigą ir kontrolę tikslinėje sistemoje.
Kaip AI keičia diegimą:
AI gali sukurti prisitaikančius išlikimo metodus ir pasiūlyti veiksmingiausius diegimo vektorius analizuodama ankstesnių etapų duomenis, tačiau visiškas niuansuoto, daug sprendimų reikalaujančio diegimo etapo automatizavimas tebėra ribotas. Taikant AI, kenkėjiška programinė įranga gali keisti elgseną, kad būtų išvengta aptikimo, ir pasirinkti optimalų laiką bei patekimo taškus.
Atvejis, į kurį atkreiptas dėmesys: Išpirkos reikalaujanti programinė įranga, mokanti pasislėpti
2024 m, tyrėjai pristatė sistemą, vadinamą EGANAI modelis, sukurtas siekiant ištirti, kaip išpirkos reikalaujanti programinė įranga gali taikyti mokymosi strategijas, kad išvengtų aptikimo. Skirtingai nuo tradicinių statinių kenkėjiškų programų, kurios arba nustatomos, arba nepastebimos, EGAN veikė kartotinio eksperimentavimo būdu.
Sistema pakartotinai modifikavo išpirkos reikalaujančios programos kodą ir bandė įvairius variantus, kol sukūrė tokį, kuris galėtų apeiti antivirusinę apsaugą, tačiau išliktų visiškai funkcionalus. Iš esmės kenkėjiška programa "išmoko" apeiti anomalijomis pagrįstus aptikimo mechanizmus, kurie paprastai veiksmingai nustato įtartiną elgesį.
Nors sukurtas mokslinių tyrimų aplinkoje, EGAN parodė, kaip dėl AI valdomų patvarumo mechanizmų gali būti daug sunkiau aptikti ir išnaikinti išpirkos reikalaujančią programinę įrangą. Kenkėjiška programinė įranga, užuot taikiusi iš anksto nustatytus vengimo metodus, prisitaiko dinamiškai, todėl kenkėjiška programinė įranga tampa beveik "nepagaunama".
-
RL pagrįstas kenkėjiškų programų vengimas - "Mokymasis apeiti statinius PE mašininio mokymosi kenkėjiškų programų modelius naudojant pastiprinimo mokymąsi" (Anderson et al. 2018)
Tyrime parodyta, kaip mokymosi pastiprinimo agentai gali iteratyviai modifikuoti "Windows PE" kenkėjišką programinę įrangą, atlikdami funkcionalumą išsaugančius pakeitimus, kad išvengtų statinių mašininio mokymosi kenkėjiškų programų detektorių ir galėtų visiškai juodosios dėžės principu adaptyviai įdiegti nuolatines kenkėjiškas programas.
Valdymas ir kontrolė
Užpuolikas, įgijęs kelių sistemų kontrolę, sukuria valdymo centrą, kad galėtų jas išnaudoti nuotoliniu būdu. Užpuolikas užmezga nuotolinį ryšį su užkrėsta sistema įvairiais kanalais (pvz., žiniatinkliu, DNS arba el. paštu), kad galėtų kontroliuoti operacijas ir išvengti aptikimo. Užpuolikas naudoja įvairius metodus, pavyzdžiui, užmaskavimą, kad paslėptų savo pėdsakus ir išvengtų aptikimo, arba atsisakymo aptarnauti (DoS) atakas, kad atitrauktų saugumo specialistų dėmesį nuo tikrųjų tikslų.
Kaip AI keičia vadovavimą ir kontrolę (C2):
AI leidžia užtikrinti slaptesnę C2 komunikaciją generuojant srautą, imituojantį teisėtą veiklą, kuriant vengiamus domenų generavimo algoritmus ir organizuojant decentralizuotus, prisitaikančius botnetus. Ji taip pat gali koreguoti C2 elgseną, kad būtų išvengta anomalijų detektorių.
Atvejis, į kurį atkreiptas dėmesys: AI koordinuojami botnetai, būriai, turintys savo protą
2023 m, tyrėjai pademonstravo naują botneto, veikiančio naudojant AI, formą. Įprastiniai botnetai paprastai remiasi centriniu valdymo ir kontrolės (C2) serveriu, per kurį vienas centras duoda nurodymus, kuriuos vėliau vykdo užkrėstos mašinos, arba botai. Tačiau šią architektūrą dažnai galima sutrikdyti, kai gynėjai nustato ir išjungia centrinį serverį.
"AI" įjungtas botnetas taikė kitokį modelį. Kiekvienas tinklo mazgas taikė mokymąsi iš pastiprinimo, kad savarankiškai nustatytų, kada pradėti atakas, kokius taikinius persekioti ir kaip pritaikyti taktiką reaguojant į gynybos priemones. Užuot laukę centralizuotų nurodymų, botai bendradarbiavo decentralizuotai ir veikė kaip saviorganizuojantis avilys.
Dėl tokios konstrukcijos "botnetas" tapo atsparesnis ir sunkiau aptinkamas. Net jei kai kurie mazgai būtų neutralizuoti, likusieji galėtų prisitaikyti ir toliau veikti. Gynėjų užduotis nebeapsiribojo vieno serverio sutrikdymu, o reikėjo kovoti su paskirstyta, prisitaikančia užkrėstų mašinų gauja.
-
AI pagrįstas žurnalo klastojimas ir pėdsakų slėpimas - "5 kovos su teismo ekspertizėmis būdai, kaip apgauti tyrėjus (+ pavyzdžiai ir aptikimo patarimai)" (CyberJunkie 2023)
2024-2025 m. ataskaitose aprašyta, kaip AI gali būti naudojamas ištrinti arba pakeisti skaitmeninius žurnalus, kad būtų galima nuslėpti atakas nuo tyrėjų, nors realių pavyzdžių vis dar pasitaiko retai. -
GAN pagrįstų įsibrovimo į tinklą aptikimo sistemų apėjimas - "Atakuoti! Priešiškos atakos siekiant apeiti GAN pagrįstą klasifikatorių, apmokytą aptikti įsibrovimą į tinklą" (Piplai et al. 2020)
Tyrime parodyta, kaip priešiškos atakos gali sėkmingai apeiti GAN apmokytas įsilaužimų aptikimo sistemas, todėl užpuolikai gali užmaskuoti C2 srautą kaip įprastą tinklo veiklą.
Veiksmai, susiję su tikslais
Užpuolikas įgyvendina savo galutinį tikslą, pavyzdžiui, duomenų išsiuntimą, duomenų šifravimą ar sunaikinimą.
Kaip AI keičia veiksmus, susijusius su tikslais:
"AI" pagreitina ir patobulina galutines atakos užduotis: automatizuotą duomenų išsiuntimą, didelės vertės turto prioritetų nustatymą, specialiai pritaikytus išdavikiškus pranešimus ir didelio masto turinio kūrimą dezinformacijai ar trikdymui. Galutiniams strateginiams sprendimams priimti dažnai vis dar reikia žmogaus sprendimo, tačiau AI sutrumpina kelią iki šių sprendimų.
Atvejis, į kurį atkreiptas dėmesys: "PromptLocker" - AI valdomas išpirkos reikalaujančių programų orkestravimas
2024 m, Niujorko universiteto mokslininkai pristatė "PromptLocker", išpirkos reikalaujančios programinės įrangos sistemos, valdomos pagal didelės kalbos modelį, koncepcijos įrodymas. Skirtingai nuo įprastinių išpirkos reikalaujančių programų, kurios vadovaujasi iš anksto nustatytu elgesiu, "PromptLocker" priimami sprendimai realiuoju laiku ir automatizuojami keli atakos gyvavimo ciklo etapai. Demonstracijos metu modelis savarankiškai:
- atrinkti vertingiausius taikinius pažeistoje sistemoje,
- prieš užšifruojant išfiltruojami neskelbtini duomenys, taip padidinant aukų įtaką,
- užšifruoti tomai ir failai, kad būtų uždrausta prieiga.
- generavo specialiai pritaikytus išpirkos raštus, pritaikydami toną ir reikalavimus prie aukos profilio (pvz., finansinių galimybių ir sektoriaus).
Nors darbas buvo atliktas kontroliuojamoje mokslinių tyrimų aplinkoje, "PromptLocker" parodyta, kaip generatyvinis AI gali automatizuoti ir išplėsti užduotis, kurioms anksčiau reikėjo žmogaus planavimo, taip pagreitindamas užpuolikų gebėjimą pasiekti savo tikslus ir prisitaikyti prie besikeičiančių aplinkybių.
-
AI generuojama dezinformacija dideliu mastu - "Prorusiška dezinformacijos kampanija naudoja nemokamus AI įrankius turinio sprogimui" (Gilbert 2025)
Straipsnyje aiškinama, kaip su Rusija susijusi kampanija "Operacija "Perkrova" (2023-2025 m.) naudoja AI įrankius, kad masiškai gamintų suklastotus visuomenės veikėjų atvaizdus, vaizdo įrašus ir klonuotus balso įrašus. Ši medžiaga plačiai plinta per botų tinklus socialinėje žiniasklaidoje, siekiant skleisti skaldančius naratyvus. -
AI sukurti netikri socialiniai profiliai, kad būtų sustiprintas - "Netikrų socialinės žiniasklaidos profilių su AI sukurtais veidais ypatybės ir paplitimas" (Yang et al. 2024)
Atlikus tyrimą nustatyta, kad daugiau kaip 1400 "Twitter" paskyrų, naudojančių AI sukurtas profilio nuotraukas, buvo suskirstytos į tinklus, kad skatintų sukčiavimus ir politinio pobūdžio pranešimus, o tūkstančiai tokių paskyrų buvo aktyvios kasdien. -
AI sukurti suklastoti dokumentai ir naujienų portalai (psyops) - "Melagystės, kurias Rusija meluoja pati sau" Šalies propagandistai taikosi į Vakarus, bet klaidina ir Kremlių (Rid 2024)
Straipsnyje aiškinama, kaip vykstanti "Doppelgänger" kampanija kūrė įtikinamas suklastotas teisėtų naujienų svetainių versijas ir skelbė "AI" sukurtus straipsnius, kuriais Vakaruose buvo propaguojami prorusiški naratyvai.
Klausimai diskusijai
- Kurioje kibernetinio nužudymo grandinės pakopoje ateityje AI gali labiausiai pakeisti AI ir kodėl? O šiuo metu, kuriame etape AI suteikia daugiausiai vilčių užpuolikams? Kuriame etape AI įgyvendinimas atrodo mažiau veiksmingas ir perspektyvus?
- Ar AI pranašumą kibernetinėje erdvėje labiau palenkia užpuolikams ar gynėjams?
- Ar plačiai paplitusi prieiga prie AI sulygins žaidimo sąlygas mėgėjams, ar suteiks daugiau galimybių gerai aprūpintiems priešininkams?
- Kaip "AI" gebėjimas automatizuoti ir pagreitinti kibernetinio nužudymo grandinę keičia kibernetinių atakų pobūdį?
- Ar AI gali padaryti atakas tokias greitas ir prisitaikančias, kad tradicinės gynybos sistemos taps nebereikalingos?
- Kam tenka atsakomybė, kai AI modeliai netinkamai naudojami kibernetinėms atakoms: kūrėjams, diegėjams ar užpuolikams?
- Kaip politikos formuotojai gali reguliuoti puolamojo pobūdžio AI, neslopindami inovacijų gynybiniuose ar civiliniuose taikymuose?
- Ar AI paskatins kibernetinius konfliktus pereiti prie autonomiškesnio, "mašina mašinai" karo?
- Ar AI galėtų iš esmės pakeisti kibernetinės žudymo grandinės modelį į nelinijinį ir nuolat prisitaikantį?