AI kibernetinių nusikaltimų srityje

Kaip "AI" keičia kibernetinę žudymo grandinę

Puolamosios kibernetinės operacijos - tai kibernetinėje erdvėje vykdomi sąmoningi veiksmai, kuriais siekiama įsiskverbti į priešininko sistemas, sutrikdyti jų veikimą arba jas sunaikinti siekiant strateginių tikslų. Dažniausiai jos vykdomos per Kibernetinė žudymo grandinė, sistemą, kurią iš pradžių sukūrė "Lockheed Martin". Pagal šią sistemą ataka suskirstoma į struktūrizuotą etapų seką, pagal kurią stebima priešininko veikla nuo pradinės žvalgybos iki galutinių veiksmų, kurių imamasi siekiant tikslų (pvz., duomenų išviešinimo ar sunaikinimo).

2

2

Ginklavimasis

Iššūkio ir galinių durų sujungimas į pristatomą naudingąją apkrovą

Pristatymas

ginkluoto paketo pristatymas aukai el. paštu, internetu, per USB ir pan.

3

3

4

4

Išnaudojimas

pažeidžiamumo išnaudojimas siekiant vykdyti kodą aukos sistemoje

Įrengimas

Kenkėjiškos programinės įrangos diegimas į turtą

5

5

6

6

Valdymas ir kontrolė (C2)

Komandų kanalas, skirtas nuotoliniu būdu manipuliuoti auka

Su tikslais susiję veiksmai

Naudodamiesi prieiga "Rankos ant klaviatūros" įsilaužėliai pasiekia savo pirminius tikslus

7

7

Pastaraisiais metais puolamųjų kibernetinių operacijų apimtis ir sudėtingumas išaugo. Pasaulinių kibernetinių atakų ne tik smarkiai daugėja, bet ir įvairėja jų rūšys.: 2022 m, 27% pasaulinių kibernetinių atakų buvo pagrįstos išviliojimu, 21% - galinėmis durimis, o 17% - išpirkos reikalaujančiomis programomis.. Dirbtinis intelektas (AI) vaidina svarbų vaidmenį šiame didėjančiame ir įvairėjančiame puolime, suteikdamas galimybę naujoms atakų formoms, tokioms kaip "deepfakes" ar "swarm" kenkėjiška programinė įranga, ir kartu stiprindamas tradicinius vektorius, tokius kaip "phishing" ar pažeidžiamumo išnaudojimas. Pasak Pasaulinė finansų direktorių apklausa, stulbinantis 85% kibernetinio saugumo specialistų skaičius atakų augimą sieja su generatyvinių AI ginklų naudojimu. Bengalūro mieste, Indijoje valstybės ataskaita patvirtino šią tendenciją: 2025 m. pradžioje 80% sukčiavimo el. laiškų buvo AI.

AI keičia pačią kibernetinio nužudymo grandinę ir turi potencialas sustiprinti kiekvieną puolimo kibernetinių kampanijų etapą.. Greitis ir mastas, kuriuo AI keičia šią grandinę, tapo svarbiu nacionalinio saugumo klausimu.

Šiame priemonių rinkinyje daugiausia dėmesio skiriama būtent AI, kaip atakų skatinimo priemonei, ir nagrinėjama, kaip ji keičia skirtingus kibernetinio nužudymo grandinės etapus.

Žvalgyba

Užpuolikas renka informaciją apie taikinį, pavyzdžiui, darbuotojų duomenis, el. laiškus ar sistemos duomenis, kad galėtų suplanuoti ataką.

Kaip AI keičia žvalgybą:

"AI" automatizuoja ir pagreitina atvirų šaltinių žvalgybos duomenų rinkimą apdorodama didelius viešų duomenų kiekius (socialinė žiniasklaida, įmonių svetainės, nutekinti įrašai) ir išgaudama struktūrizuotus artefaktus, pavyzdžiui, subdomenus, tikėtinus IP adresų intervalus ir darbuotojų profilius. Ji taip pat sumažina tikslinės socialinės inžinerijos įgūdžių barjerą, nes sukuria glaustus aukų profilius, tinkamus "spear-phishing".
Poveikio mastas: didelis. Automatizuota OSINT gerokai sumažina laiko ir žinių poreikį.

Atvejis, į kurį atkreiptas dėmesys: ChatGPT kaip žvalgybos asistentas

2024 m, kibernetinio saugumo tyrėja Sheetal Tamara paskelbė straipsnį, kuriame demonstruojama, kaip dideli kalbos modeliai, tokie kaip ChatGPT, gali labai pagreitinti atakos žvalgybos etapą. Užuot valandų valandas praleidęs rašydamas scenarijus ir rankiniu būdu rinkdamas atvirojo šaltinio žvalgybos informaciją, tyrėjas naudojo trumpas pokalbių užuominų serijas, pvz: "Išvardykite visus subdomenus, kuriuos galite rasti svetainėje examplecompany.com", "Apibendrinkite įmonės tinklo topologiją, remdamiesi viešai prieinama informacija" ir "Nustatykite, kokios operacinės sistemos ir paslaugos greičiausiai veikia šiuose serveriuose".

Per kelias minutes modelis pateikė naudingos žvalgybinės medžiagos, įskaitant:

  • domenų ir subdomenų, susijusių su tiksline įmone, sąrašą.
  • tikėtini IP adresų intervalai
  • pastabos apie SSL/TLS konfigūracijas, galimus atvirus prievadus ir įprastas paslaugas.
  • viešą darbuotojų informaciją (iš "LinkedIn" ir pranešimų spaudai), kuri gali būti naudojama "spear-phishing".

Jei OSINT rinkimui paprastai prireiktų kelių valandų ar dienų rankinio darbo, eksperimento metu užduotis buvo sumažinta iki pokalbio, kuriam reikėjo kur kas mažiau techninių žinių. Todėl šis tyrimas pabrėžia, kaip generatyviniai modeliai gali sumažinti automatizuotos žvalgybos barjerą, o tai turi aiškią reikšmę gynybos praktikai ir grėsmių modeliavimui.

Papildoma literatūra

Ginklavimasis

Užpuolikas naudoja žvalgybos metu gautą informaciją, kad sukurtų arba pritaikytų kenkėjišką naudingąjį krūvį (pvz., kenkėjišką programinę įrangą arba išnaudojimo įrankius) ir pasinaudotų taikinio silpnosiomis vietomis.

Kaip AI keičia ginklavimąsi:

"AI" supaprastina kenkėjiškų naudingųjų krūvių kūrimą ir derinimą generuojant ar modifikuojant kodą ir testuojant variantus pagal aptikimo modelius. Taip galima sukurti diskretiškesnius, adaptyvesnius ir tikslingesnius naudinguosius krūvius, įskaitant polimorfinius variantus, kurie keičia savo išvaizdą kiekvieno vykdymo metu. Priešiškas testavimas gali būti naudojamas siekiant patobulinti naudinguosius krūvius prieš juos paleidžiant.

Poveikio mastas: didelis. Automatizavimas pagreitina naudingojo krovinio kūrimą ir padidina jo mastą.

Atvejis, į kurį atkreiptas dėmesys: AI sukurtos kenkėjiškos programinės įrangos lašintuvas laisvėje

2024 m, kibernetinio saugumo analitikai nustatė sukčiavimo kampaniją, kuri iš pradžių atrodė įprasta: elektroninių laiškų serija, kurioje platinamas įprastas kenkėjiškos programinės įrangos krovinys. Tačiau atidžiau apžiūrėjus lašintuvą (t. y. nedidelę programą, atsakingą už pirminės kenkėjiškos programos įdiegimą ir aktyvinimą) paaiškėjo neįprasta savybė.

Iš lašintuvo struktūros ir sintaksės galima spręsti, kad jis buvo sukurtas naudojant didelės kalbos modelį, o ne sukurtas žmogaus programuotojo. Nors jis veikė kaip paprastas apvalkalas, AI sukurtas lašintuvas buvo ir ištobulintas, ir veiksmingas, rodantis gebėjimą išvengti tradicinių aptikimo metodų. Jis sėkmingai apėjo pagrindinius antivirusinius parašus ir pristatė kenkėjišką programinę įrangą taip, kaip buvo numatyta.

Šis atradimas buvo vienas iš pirmųjų patvirtintų AI sukurto kenkėjiško kodo diegimo atvejų. Nors pagrindinė kenkėjiška programinė įranga nebuvo nauja, tai, kad dalis ginklų kūrimo proceso buvo perduota "AI", buvo reikšmingas pokytis. Tai parodė, kaip užpuolikai gali padidinti operacijų mastą, sumažinti kūrimo išlaidas ir greičiau prisitaikyti, kartu apsunkindami aptikimo ir reagavimo pastangas.

Papildoma literatūra

Pristatymas

Užpuolikas ataką pradeda perduodamas kenkėjišką naudingąjį krūvį taikiniui, dažnai naudodamasis apgaulingais el. laiškais, suklastotomis svetainėmis arba nesaugiais tinklais.

Kaip AI keičia pristatymą:

"AI" pritaiko ir laiko pristatymo mechanizmus, kad būtų pasiekta kuo didesnė sėkmė. Ji automatizuoja įtikinamo apgaulingo turinio, realiuoju laiku veikiančių giluminių klastočių, adaptyvių pokalbių sąveikų ir tikroviškų apgaulingų tinklalapių kūrimą ir naudoja žvalgybos duomenis, kad pasirinktų optimalų pristatymo momentą ir kanalą. Tai sumažina žmogaus įgūdžių poreikį vykdant kampanijas.

Poveikio mastas: didelis. AI žymiai padidina pristatymo įtikinamumą ir automatizavimą.

Atvejis, į kurį atkreiptas dėmesys: "Deepfake CEO" sukčiavimas bendrovėje "Arup

2024 m. JK inžinerijos įmonė "Arup sulaukė, kaip atrodė, teisėto vaizdo skambučio iš savo regiono vyriausiojo vykdomojo pareigūno. Vadovas skubiai paprašė pervesti lėšas, susijusias su konfidencialiu sandoriu. Asmuo ekrane itin tiksliai atkartojo generalinio direktoriaus išvaizdą, balsą ir manieras.

Iš tikrųjų skambino ne vadovas, o per AI sukurtas "deepfake", skirtas imituoti jį realiuoju laiku. Įsitikinę sąveikos autentiškumu, darbuotojai leido atlikti beveik 25 milijonų JAV dolerių pervedimus.

Šis incidentas yra vienas didžiausių užregistruotų atvejų, kai kibernetinės atakos pristatymo etape buvo naudojama AI socialinė inžinerija. Jis rodo, kad sukčiavimui nebereikia prastai parengtų el. laiškų ar abejotinų nuorodų. Vietoj to, AI dabar leidžia naudoti labai tikroviškus garso ir vaizdo apsimetinėjimus, kurie apeina ne tik technines kontrolės priemones, bet ir žmogaus vertinimą bei pasitikėjimą.

Papildoma literatūra

Išnaudojimas

Užpuolikas paleidžia naudingąjį krūvį, kad pasinaudotų pažeidžiamumu ir įgytų neteisėtą prieigą prie tikslinės sistemos. Įsiskverbęs į organizaciją, užpuolikas, naudodamasis šia prieiga, juda iš vienos sistemos į kitą, kad rastų svarbios informacijos (pvz., slaptų duomenų, papildomų pažeidžiamumų, el. pašto serverių ir t. t.) ir pakenktų organizacijai.

Kaip AI keičia išnaudojimą:

"AI" padeda įsilaužėliams nustatyti, suprasti ir išnaudoti sistemos silpnąsias vietas, automatizuojant pažeidžiamumų nustatymą (pvz., išmanųjį "fuzzing" ir vadovaujamąjį nuskaitymą), sudarant atakų medžius ir siūlant išnaudojimo būdus. Jis taip pat gali generuoti priešiškus įvesties duomenis, kuriais apeinamos saugumo priemonės arba išnaudojamos apsaugos priemonės.

Poveikio mastas: Poveikis: vidutinis. AI pagerina aptikimo greitį ir veiksmingumą, ypač sudėtingų sistemų atžvilgiu.

Atvejis, į kurį atkreiptas dėmesys: Morris II AI kirminas

2024 m, tyrėjai pademonstravo naują savaime plintančio kirmino formą, kuri nesiremia įprastinių programinės įrangos pažeidžiamumų išnaudojimu. Vietoj to jis taikėsi į pačias generatyvines AI sistemas.

Pavadinimas Morisas II atsižvelgiant į garsųjį 1988 m. "Morris Worm", šioje koncepcijos įrodymo atakoje buvo naudojami priešiški raginimai manipuliuoti AI modeliais, kad šie atgamintų ir platintų kenkėjiškas instrukcijas. Kai sistema buvo "užkrėsta", kirminas galėjo savarankiškai generuoti tolesnes užuominas, kurios paskatino AI atkartoti ataką ir perduoti ją kitiems modeliams.

Skirtingai nuo tradicinių kirminų, kurie paprastai naudojasi neištaisytu kodu, Morisas II plinta pasinaudojant generatyvinės AI elgsenos atvirumu ir nenuspėjamumu. Demonstracijoje buvo pabrėžta, kad organizacijoms vis dažniau įtraukiant generatyvinį AI į operacines darbo eigas, gali atsirasti naujų atakos paviršių, kurių pažeidžiamumas slypi ne išeities kode, o mokymo duomenyse ir modelio atsakymuose.

Papildoma literatūra

Įrengimas

Užpuolikas įdiegia kenkėjišką programinę įrangą arba užkardas, kad išsaugotų (paslėptą) nuolatinę prieigą ir kontrolę tikslinėje sistemoje.

Kaip AI keičia diegimą:

AI gali sukurti prisitaikančius išlikimo metodus ir pasiūlyti veiksmingiausius diegimo vektorius analizuodama ankstesnių etapų duomenis, tačiau visiškas niuansuoto, daug sprendimų reikalaujančio diegimo etapo automatizavimas tebėra ribotas. Taikant AI, kenkėjiška programinė įranga gali keisti elgseną, kad būtų išvengta aptikimo, ir pasirinkti optimalų laiką bei patekimo taškus.

Poveikio mastas: Poveikis: vidutinis. AI pagerina patvarumą ir slaptumą, tačiau visiškas automatizavimas išlieka ribotas, nes diegimui reikalingi kontekstiniai sprendimai.

Atvejis, į kurį atkreiptas dėmesys: Išpirkos reikalaujanti programinė įranga, mokanti pasislėpti

2024 m, tyrėjai pristatė sistemą, vadinamą EGANAI modelis, sukurtas siekiant ištirti, kaip išpirkos reikalaujanti programinė įranga gali taikyti mokymosi strategijas, kad išvengtų aptikimo. Skirtingai nuo tradicinių statinių kenkėjiškų programų, kurios arba nustatomos, arba nepastebimos, EGAN veikė kartotinio eksperimentavimo būdu.

Sistema pakartotinai modifikavo išpirkos reikalaujančios programos kodą ir bandė įvairius variantus, kol sukūrė tokį, kuris galėtų apeiti antivirusinę apsaugą, tačiau išliktų visiškai funkcionalus. Iš esmės kenkėjiška programa "išmoko" apeiti anomalijomis pagrįstus aptikimo mechanizmus, kurie paprastai veiksmingai nustato įtartiną elgesį.

Nors sukurtas mokslinių tyrimų aplinkoje, EGAN parodė, kaip dėl AI valdomų patvarumo mechanizmų gali būti daug sunkiau aptikti ir išnaikinti išpirkos reikalaujančią programinę įrangą. Kenkėjiška programinė įranga, užuot taikiusi iš anksto nustatytus vengimo metodus, prisitaiko dinamiškai, todėl kenkėjiška programinė įranga tampa beveik "nepagaunama".

Papildoma literatūra

Valdymas ir kontrolė

Užpuolikas, įgijęs kelių sistemų kontrolę, sukuria valdymo centrą, kad galėtų jas išnaudoti nuotoliniu būdu. Užpuolikas užmezga nuotolinį ryšį su užkrėsta sistema įvairiais kanalais (pvz., žiniatinkliu, DNS arba el. paštu), kad galėtų kontroliuoti operacijas ir išvengti aptikimo. Užpuolikas naudoja įvairius metodus, pavyzdžiui, užmaskavimą, kad paslėptų savo pėdsakus ir išvengtų aptikimo, arba atsisakymo aptarnauti (DoS) atakas, kad atitrauktų saugumo specialistų dėmesį nuo tikrųjų tikslų.

Kaip AI keičia vadovavimą ir kontrolę (C2):

AI leidžia užtikrinti slaptesnę C2 komunikaciją generuojant srautą, imituojantį teisėtą veiklą, kuriant vengiamus domenų generavimo algoritmus ir organizuojant decentralizuotus, prisitaikančius botnetus. Ji taip pat gali koreguoti C2 elgseną, kad būtų išvengta anomalijų detektorių.

Poveikio mastas: Poveikis: vidutinis. AI didina C2 sudėtingumą ir atsparumą, tačiau operaciniai apribojimai riboja platų pritaikymą.

Atvejis, į kurį atkreiptas dėmesys: AI koordinuojami botnetai, būriai, turintys savo protą

2023 m, tyrėjai pademonstravo naują botneto, veikiančio naudojant AI, formą. Įprastiniai botnetai paprastai remiasi centriniu valdymo ir kontrolės (C2) serveriu, per kurį vienas centras duoda nurodymus, kuriuos vėliau vykdo užkrėstos mašinos, arba botai. Tačiau šią architektūrą dažnai galima sutrikdyti, kai gynėjai nustato ir išjungia centrinį serverį.

"AI" įjungtas botnetas taikė kitokį modelį. Kiekvienas tinklo mazgas taikė mokymąsi iš pastiprinimo, kad savarankiškai nustatytų, kada pradėti atakas, kokius taikinius persekioti ir kaip pritaikyti taktiką reaguojant į gynybos priemones. Užuot laukę centralizuotų nurodymų, botai bendradarbiavo decentralizuotai ir veikė kaip saviorganizuojantis avilys.

Dėl tokios konstrukcijos "botnetas" tapo atsparesnis ir sunkiau aptinkamas. Net jei kai kurie mazgai būtų neutralizuoti, likusieji galėtų prisitaikyti ir toliau veikti. Gynėjų užduotis nebeapsiribojo vieno serverio sutrikdymu, o reikėjo kovoti su paskirstyta, prisitaikančia užkrėstų mašinų gauja.

Papildoma literatūra

Veiksmai, susiję su tikslais

Užpuolikas įgyvendina savo galutinį tikslą, pavyzdžiui, duomenų išsiuntimą, duomenų šifravimą ar sunaikinimą.

Kaip AI keičia veiksmus, susijusius su tikslais:

"AI" pagreitina ir patobulina galutines atakos užduotis: automatizuotą duomenų išsiuntimą, didelės vertės turto prioritetų nustatymą, specialiai pritaikytus išdavikiškus pranešimus ir didelio masto turinio kūrimą dezinformacijai ar trikdymui. Galutiniams strateginiams sprendimams priimti dažnai vis dar reikia žmogaus sprendimo, tačiau AI sutrumpina kelią iki šių sprendimų.

Poveikio mastas: Poveikis: vidutinis. AI pagreitina ir padidina į tikslą orientuotą veiklą, tačiau visiškai nepakeičia žmogaus ketinimų.

Atvejis, į kurį atkreiptas dėmesys: "PromptLocker" - AI valdomas išpirkos reikalaujančių programų orkestravimas

2024 m, Niujorko universiteto mokslininkai pristatė "PromptLocker", išpirkos reikalaujančios programinės įrangos sistemos, valdomos pagal didelės kalbos modelį, koncepcijos įrodymas. Skirtingai nuo įprastinių išpirkos reikalaujančių programų, kurios vadovaujasi iš anksto nustatytu elgesiu, "PromptLocker" priimami sprendimai realiuoju laiku ir automatizuojami keli atakos gyvavimo ciklo etapai. Demonstracijos metu modelis savarankiškai:

  • atrinkti vertingiausius taikinius pažeistoje sistemoje,
  • prieš užšifruojant išfiltruojami neskelbtini duomenys, taip padidinant aukų įtaką,
  • užšifruoti tomai ir failai, kad būtų uždrausta prieiga.
  • generavo specialiai pritaikytus išpirkos raštus, pritaikydami toną ir reikalavimus prie aukos profilio (pvz., finansinių galimybių ir sektoriaus).

Nors darbas buvo atliktas kontroliuojamoje mokslinių tyrimų aplinkoje, "PromptLocker" parodyta, kaip generatyvinis AI gali automatizuoti ir išplėsti užduotis, kurioms anksčiau reikėjo žmogaus planavimo, taip pagreitindamas užpuolikų gebėjimą pasiekti savo tikslus ir prisitaikyti prie besikeičiančių aplinkybių.

Papildoma literatūra

Klausimai diskusijai

Bibliografija

"Prorusiška dezinformacijos kampanija naudoja nemokamus AI įrankius, kad paskatintų "turinio sprogimą" | WIRED". Žiūrėta 2025 m. rugsėjo 19 d. https://www.wired.com/story/pro-russia-disinformation-campaign-free-ai-tools/. 

"AI sukurta "PromptLocker" išpirkos reikalaujanti programa yra tik Niujorko universiteto mokslinių tyrimų projektas - kodas veikė kaip tipinė išpirkos reikalaujanti programa, pasirinkdama taikinius, išviliodama pasirinktus duomenis ir užšifruodama tomus | Tom's Hardware". Žiūrėta 2025 m. rugsėjo 19 d. https://www.tomshardware.com/tech-industry/cyber-security/ai-powered-promptlocker-ransomware-is-just-an-nyu-research-project-the-code-worked-as-a-typical-ransomware-selecting-targets-exfiltrating-selected-data-and-encrypting-volumes. 

Al-Karaki, Jamal, Muhammad Al-Zafar Khan ir Marwan Omar. "LLM tyrimas kenkėjiškų programų aptikimui: arXiv:2409.07587. 1 versija. Preprint, arXiv, 2024 m. rugsėjo 11 d. https://doi.org/10.48550/arXiv.2409.07587. 

Anderson, Hyrum S., Anant Kharkar, Bobby Filar, David Evans ir Phil Roth. 'Learning to Evade Static PE Machine Learning Malware Models via Reinforcement Learning'. arXiv:1801.08917. Preprint, arXiv, 2018 m. sausio 30 d. https://doi.org/10.48550/arXiv.1801.08917. 

Anis, Fatima ir Mohammad Hammoudeh. "AI panaudojimas kibernetinėse atakose: lyginamasis AI naudojančių įrankių, skirtų puolamajam saugumui užtikrinti, tyrimas". 8-osios tarptautinės konferencijos "Ateities tinklai ir paskirstytosios sistemos" medžiaga, ACM, 2024 m. gruodžio 11 d., 283-90. https://doi.org/10.1145/3726122.3726164. 

Buchanan, Benas. "Kibernetinio saugumo ir dirbtinio intelekto nacionalinio saugumo mokslinių tyrimų darbotvarkė". Saugumo ir naujų technologijų centras, 2020 M. https://cset.georgetown.edu/publication/a-national-security-research-agenda-for-cybersecurity-and-artificial-intelligence/. 

Cohenas, Stavas, Ronas Bittonas ir Benas Nassi. "Ateina AI kirminas: arXiv:2403.02817. 1 versija. Preprint, arXiv, 2024 m. kovo 5 d. https://doi.org/10.48550/arXiv.2403.02817. 

Commey, Daniel, Benjamin Appiah, Bill K. Frimpong, Isaac Osei, Ebenezer N. A. Hammond ir Garth V. Crosby. "EGAN: Evolutional GAN for Ransomware Evasion". 2023 m. IEEE 48-oji vietinių kompiuterių tinklų (LCN) konferencija, 2023 m. spalio 2 d., 1-9. https://doi.org/10.1109/LCN58197.2023.10223320. 

"Cyber Kill Chain® | Lockheed Martin". Žiūrėta 2025 m. rugsėjo 19 d. https://www.lockheedmartin.com/en-us/capabilities/cyber/cyber-kill-chain.html. 

"Kibernetinės grėsmės ES: Consilium". Žiūrėta 2025 m. rugsėjo 22 d. https://www.consilium.europa.eu/en/policies/top-cyber-threats/. 

"Deepfake" sukčiai apsimeta FTSE vadovais". Žiūrėta 2025 m. rugsėjo 19 d. https://www.thetimes.com/business-money/technology/article/deepfake-fraudsters-impersonate-ftse-chief-executives-z9vvnz93l. 

Nulaužti dėžutę. "5 kovos su klastotėmis metodai, kuriais galima apgauti tyrėjus (+ pavyzdžiai ir aptikimo patarimai)". Žiūrėta 2025 m. rugsėjo 19 d. https://www.hackthebox.com/blog/anti-forensics-techniques. 

"Įsilaužėliai naudoja AI grėsmių žvalgybos ataskaitoms ir kenkėjiškoms programoms "Vibe Code" analizuoti | IT Pro". Žiūrėta 2025 m. rugsėjo 19 d. https://www.itpro.com/security/hackers-are-using-ai-to-dissect-threat-intelligence-reports-and-vibe-code-malware. 

Hoover, Amanda. "Nauja gudri apgavystė, kurios jūsų bankas negali sustabdyti". "Business Insider". Žiūrėta 2025 m. rugsėjo 19 d. https://www.businessinsider.com/bank-account-scam-deepfakes-ai-voice-generator-crime-fraud-2025-5. 

Huynh, Nam ir Beiyu Lin. "Didelės kalbos modeliai kodui generuoti: arXiv:2503.01245. Preprint, arXiv, 2025 m. balandžio 2 d. https://doi.org/10.48550/arXiv.2503.01245. 

"IBM Security X-Force Threat Intelligence Index 2023. n.d. 

Kolosnjaji, Bojan, Ambra Demontis, Battista Biggio ir kt. "Adversarial Malware Binaries: arXiv:1803.04173. Preprint, arXiv, 2018 m. kovo 12 d. https://doi.org/10.48550/arXiv.1803.04173. 

Li, Haoyuan, Hao Jiang, Tao Jin ir kt. "DATE: Domain Adaptive Product Seeker for E-Commerce". arXiv:2304.03669. Preprint, arXiv, 2023 m. balandžio 7 d. https://doi.org/10.48550/arXiv.2304.03669. 

Mirsky, Yisroel, Ambra Demontis, Jaidip Kotak ir kt. "The Threat of Offensive AI to Organizations". Kompiuteriai ir saugumas 124 (2023 m. sausio mėn.): 103006. https://doi.org/10.1016/j.cose.2022.103006. 

Piplai, Aritranas, Sai Sree Laya Chukkapalli ir Anupamas Joshi. "NAttack! Adversarial Attacks to Bypass a GAN Based Classifier Trained to Detect Network Intrusion". 2020 m. IEEE 6-oji tarptautinė konferencija apie didelių duomenų saugumą debesyje (BigDataSecurity), IEEE tarptautinė didelio našumo ir išmaniosios kompiuterijos konferencija (HPSC) ir IEEE tarptautinė išmaniųjų duomenų ir saugumo konferencija (IDS)., 2020 m. gegužė, 49-54. https://doi.org/10.1109/BigDataSecurity-HPSC-IDS49724.2020.00020. 

"Polimorfinė AI kenkėjiška programinė įranga: CardinalOps". Žiūrėta 2025 m. rugsėjo 19 d. https://cardinalops.com/blog/polymorphic-ai-malware-detection/. 

Rid, Thomas. "Melagystės, kurias Rusija sako pati sau". Užsienio reikalai, 2024 m. rugsėjo 30 d. https://www.foreignaffairs.com/united-states/lies-russia-tells-itself. 

"938 kronų, prarastų dėl kibernetinių sukčių nuo sausio mėnesio | Bengalūro naujienos - Times of India". Žiūrėta 2025 m. rugsėjo 22 d. https://timesofindia.indiatimes.com/city/bengaluru/rs-938-crore-lost-to-cybercrooks-since-jan/articleshow/122075324.cms. 

Schröer, Saskia Laura, Luca Pajola, Alberto Castagnaro, Giovanni Apruzzese ir Mauro Conti. "AI panaudojimas atakoms: ArXiv:2506.12519. 1 versija. Preprint, arXiv, 2025 m. birželio 14 d. https://doi.org/10.48550/arXiv.2506.12519. 

Sewak, Mohit, Sanjay K. Sahay ir Hemant Rathore. "ADVERSARIALuscator: An Adversarial-DRL Based Obfuscator and Metamorphic Malware SwarmGenerator". 2021 m. Tarptautinė jungtinė neuroninių tinklų konferencija (IJCNN), 2021 m. liepos 18 d., 1-9. https://doi.org/10.1109/IJCNN52387.2021.9534016. 

Temara, Sheetal. "Maksimalus įsiskverbimo testavimo sėkmės didinimas naudojant veiksmingus žvalgybos metodus naudojant ChatGPT". arXiv:2307.06391. Preprint, arXiv, 2023 m. kovo 20 d. https://doi.org/10.48550/arXiv.2307.06391. 

Townsendas, Kevinas. "Laukinėje aplinkoje rasta AI generuojamų kenkėjiškų programų". SecurityWeek, 2024 m. rugsėjo 24 d. https://www.securityweek.com/ai-generated-malware-found-in-the-wild/. 

Yamin, Muhammad Mudassar, Mohib Ullah, Habib Ullah ir Basel Katt. "Kibernetinių atakų ginklas AI". Journal of Information Security and Applications 57 (2021 m. kovo mėn.): 102722. https://doi.org/10.1016/j.jisa.2020.102722. 

Yang, Kai-Cheng, Danishjeet Singh ir Filippo Menczer. "Fake Social Media Profiles with AI-Generated Faces Characteristics and Prevalence" ("Suklastotų socialinės žiniasklaidos profilių su AI sukurtais veidais ypatybės ir paplitimas"). Internetinio pasitikėjimo ir saugumo žurnalas 2, Nr. 4 (2024). https://doi.org/10.54501/jots.v2i4.197. 

Yu, Jingru, Yi Yu, Xuhong Wang ir kt. "The Shadow of Fraud: The Emerging Danger of AI-Powered Social Engineering and Its Possible Cure". arXiv:2407.15912. Preprint, arXiv, 2024 m. liepos 22 d. https://doi.org/10.48550/arXiv.2407.15912. 

Dėkojame, kad užsiregistravote mūsų naujienlaiškiui!

Ačiū! RSVP gautas AI kibernetiniame nusikaltime

AI kibernetinių nusikaltimų srityje

Pakraunama...

Pakraunama...