AI kibernoziegumos

Kā AI maina kibernoziegumu ķēdi

Ofensīvas kiberoperācijas ir apzinātas darbības, kas tiek veiktas kibertelpā, lai iekļūtu pretinieka sistēmās, sagrautu vai iznīcinātu tās, cenšoties sasniegt stratēģiskus mērķus. Parasti tās tiek veidotas, izmantojot Kibernētiskā nogalināšanas ķēde, sistēmu, ko sākotnēji izstrādāja Lockheed Martin. Šī sistēma iedala uzbrukumu strukturētā posmu secībā, izsekojot pretinieka progresu no sākotnējās izlūkošanas līdz galīgajām darbībām, kas tiek veiktas, lai sasniegtu mērķus (piemēram, datu noplūde vai datu iznīcināšana).

2

2

Bruņošanās

Izmantošanas iespēju savienošana ar aizmugurējām durvīm, lai izveidotu piegādājamu komerckravu

Piegāde

Ieroču komplekta piegāde upurim, izmantojot e-pastu, tīmekli, USB u. c.

3

3

4

4

Izmantošana

Vājās vietas izmantošana, lai upura sistēmā izpildītu kodu.

Uzstādīšana

Ļaunprātīgas programmatūras instalēšana aktīvā

5

5

6

6

Vadība un kontrole (C2)

Komandu kanāls attālinātai manipulācijai ar upuri

Darbības saistībā ar mērķiem

Izmantojot piekļuvi ar "Hands on Keyboard", iebrucēji sasniedz savus sākotnējos mērķus.

7

7

Pēdējos gados ir palielinājies gan uzbrukuma kiberoperāciju apjoms, gan sarežģītība. Globālo kiberuzbrukumu skaits ne tikai strauji pieaug, bet arī dažādojas to veidi.: 2022. gadā, 27% globālo kiberuzbrukumu pamatā bija izspiešana, 21% - aizmugurējie vārti, bet 17% - izpirkuma maksa.. Mākslīgajam intelektam (AI) ir liela nozīme šajā pastiprināšanās un diversifikācijas procesā, ļaujot izmantot jaunus uzbrukumu veidus, piemēram, "deepfakes" vai "swarm malware", vienlaikus stiprinot tradicionālos vektorus, piemēram, pikšķerēšanu vai ievainojamību izmantošanu. Saskaņā ar Finanšu direktoru globālā aptauja, pārsteidzoši 85% kiberdrošības speciālistu uzbrukumu skaita pieaugumu saista ar ģeneratīvo AI ieroču izmantošanu. Bengalūras pilsētā Indijā valsts ziņojums apstiprināja šo tendenci: 2025. gada sākumā 80% pikšķerēšanas e-pasta vēstuļu bija AI.

AI pārveido pašu kibernoziegumu ķēdi, un tam ir potenciāls uzlabot katru kiberuzbrukumu kampaņu posmu.. Ātrums un mērogs, kādā AI pārveido šo ķēdi, ir kļuvis par aktuālu valsts drošības problēmu.

Šajā rīku komplektā īpaša uzmanība pievērsta AI kā uzbrukumu veicinātājam, pētot, kā tas pārveido dažādus kibernoziegumu ķēdes posmus.

Izlūkošana

Uzbrucējs ievāc informāciju par mērķi, piemēram, informāciju par darbiniekiem, e-pasta vēstules vai sistēmas datus, lai plānotu uzbrukumu.

Kā AI maina izlūkošanu:

AI automatizē un paātrina atklātā avota izlūkdatu vākšanu, apstrādājot lielus publisko datu apjomus (sociālie plašsaziņas līdzekļi, uzņēmumu vietnes, noplūduši ieraksti) un iegūstot strukturētus artefaktus, piemēram, apakšdomēnus, iespējamos IP diapazonus un darbinieku profilus. Tas arī samazina prasmju barjeru mērķtiecīgai sociālajai inženierijai, izveidojot kodolīgus upuru profilus, kas piemēroti spear-phishing.
Ietekmes pakāpe: liela. Automatizēta OSINT ievērojami samazina nepieciešamo laiku un zināšanas.

Izceltais gadījums: ChatGPT kā izlūkošanas palīgs

2024. gadā, kiberdrošības pētniece Sheetal Tamara publicēts raksts, kurā demonstrēts, kā lieli valodas modeļi, piemēram, ChatGPT, var ievērojami paātrināt uzbrukuma izlūkošanas fāzi. Tā vietā, lai stundām ilgi rakstītu skriptus un manuāli vāktu atklātā avota izlūkdatus, pētnieks izmantoja, piemēram, īsu sarunu pamācību sēriju: "Uzskaitiet visus apakšdomēnus, ko varat atrast examplecompany.com", "Apkopojiet uzņēmuma tīkla topoloģiju, pamatojoties uz publiski pieejamo informāciju" un "Nosakiet, kādas operētājsistēmas un pakalpojumi, visticamāk, darbojas šajos serveros".

Dažu minūšu laikā modelis izveidoja noderīgu izlūkošanas materiālu, tostarp:

  • ar mērķa uzņēmumu saistīto domēnu un apakšdomēnu sarakstu.
  • iespējamie IP adrešu diapazoni
  • piezīmes par SSL/TLS konfigurācijām, iespējamiem atvērtajiem portiem un kopīgiem pakalpojumiem.
  • publiski pieejamu informāciju par darbiniekiem (no LinkedIn un preses relīzēm), ko varētu izmantot spear-phishing.

Ja OSINT datu vākšanai parasti būtu nepieciešamas vairākas stundas vai dienas manuāla darba, eksperimenta laikā šis uzdevums tika samazināts līdz sarunvalodas darbplūsmai, kas prasīja daudz mazāk tehnisku zināšanu. Tāpēc pētījums uzsver, kā ģeneratīvie modeļi var samazināt šķēršļus automatizētai izlūkošanai, un tas nepārprotami ietekmē aizsardzības praksi un draudu modelēšanu.

Papildu literatūra

Bruņošanās

Uzbrucējs izmanto izlūkošanas laikā atklāto informāciju, lai izveidotu vai pielāgotu ļaunprātīgu kravnesību (piemēram, ļaunprātīgu programmatūru vai ekspluatantus) un izmantotu mērķa vājās vietas.

Kā AI maina bruņojuma izmantošanu:

AI racionalizē ļaunprātīgas ielādes izveidi un pielāgošanu, ģenerējot vai modificējot kodu un testējot variantus pret atklāšanas modeļiem. Tādējādi var radīt diskrētākas, adaptīvākas un mērķtiecīgākas kaitīgās slodzes, tostarp polimorfus variantus, kas maina savu izskatu pēc katras izpildes. Adversariālo testēšanu var izmantot, lai pirms izvietošanas pilnveidotu lietderīgās slodzes.

Ietekmes pakāpe: liela. Automatizācija paātrina un palielina lietderīgās slodzes izstrādi.

Izceltais gadījums: AI ģenerēta ļaunprātīgas programmatūras pilinātājs savvaļā

2024. gadā, kiberdrošības analītiķi identificēja pikšķerēšanas kampaņu, kas sākotnēji šķita parasta: virkne e-pasta vēstuļu, kurās tika izplatīta parastā ļaunprātīgas programmatūras ielāde. Tomēr, rūpīgāk pārbaudot dropperi (t. i., nelielu programmu, kas atbild par primārās ļaunprogrammatūras instalēšanu un aktivizēšanu), atklājās neparasta iezīme.

Kroplītes struktūra un sintakse liecināja, ka tā ir radīta, izmantojot lielo valodas modeli, nevis to ir veidojis programmētājs, kas ir tās autors. Lai gan tas darbojās kā vienkāršs wrapper, AI radītais dropper bija gan izsmalcināts, gan efektīvs, demonstrējot spēju izvairīties no tradicionālajām atklāšanas metodēm. Tas veiksmīgi apēja pamata pretvīrusu signatūras un piegādāja ļaunprātīgu programmatūru, kā bija paredzēts.

Šis atklājums bija viens no pirmajiem apstiprinātajiem gadījumiem, kad AI ģenerēts ļaunprātīgs kods tika izvietots brīvā dabā. Lai gan pamatā esošā ļaunprātīgā programmatūra nebija jaunums, tas, ka daļa ieroču izgatavošanas procesa tika uzticēta AI, bija nozīmīgs pavērsiens. Tas parādīja, kā uzbrucēji var paplašināt darbības, samazināt izstrādes izmaksas un ātrāk pielāgoties, vienlaikus apgrūtinot atklāšanas un reaģēšanas pasākumus.

Papildu literatūra

Piegāde

Uzbrucējs sāk uzbrukumu, nosūtot mērķim ļaunprātīgu ielādi, bieži vien izmantojot pikšķerēšanas e-pasta vēstules, viltotas vietnes vai nedrošus tīklus.

Kā AI maina piegādi:

AI pielāgo un nosaka piegādes mehānismus, lai maksimāli palielinātu panākumus. Tā automatizē pārliecinoša pikšķerēšanas satura, reāllaika viltojumu, adaptīvu tērzēšanas mijiedarbību un reālistisku krāpniecisku tīmekļa lapu ģenerēšanu, kā arī izmanto izlūkošanas datus, lai izvēlētos optimālo piegādes brīdi un kanālu. Tas samazina vajadzību pēc cilvēka prasmēm kampaņu izpildē.

Ietekmes pakāpe: liela. AI ievērojami palielina piegādes pārliecināmību un automatizāciju.

Izceltais gadījums: Deepfake CEO krāpšana uzņēmumā Arup

2024. gadā darbinieki Apvienotās Karalistes inženiertehniskais uzņēmums Arup saņēma, šķiet, likumīgu videozvanu no sava reģiona izpilddirektora. Izpilddirektors steidzami lūdza pārskaitīt līdzekļus saistībā ar konfidenciālu darījumu. Persona uz ekrāna ar ievērojamu precizitāti atdarināja izpilddirektora izskatu, balsi un manieres.

Patiesībā zvanītājs nebija izpilddirektors, bet gan ar AI starpniecību radīta viltus persona, kas bija paredzēta, lai reāllaikā imitētu viņu. Pārliecināti par mijiedarbības autentiskumu, darbinieki autorizēja virkni pārskaitījumu par gandrīz 25 miljoniem ASV dolāru.

Šis incidents ir viens no lielākajiem reģistrētajiem gadījumiem, kad kiberuzbrukuma piegādes fāzē ar AI starpniecību tika veikta sociālā inženierija. Tas parāda, ka pikšķerēšana vairs nav atkarīga no slikti sagatavotiem e-pastiem vai apšaubāmām saitēm. Tā vietā AI tagad ļauj izmantot ļoti reālistiskas audio un video imitācijas, kas apiet ne tikai tehniskās kontroles, bet arī cilvēka vērtējumu un uzticēšanos.

Papildu literatūra

Izmantošana

Uzbrucējs iedarbina komerckravu, lai izmantotu ievainojamību un iegūtu neatļautu piekļuvi mērķa sistēmai. Pēc iekļūšanas organizācijā uzbrucējs izmanto šo piekļuvi, lai pārvietotos starp sistēmām, atrodot attiecīgo informāciju (piemēram, sensitīvus datus, papildu ievainojamības, e-pasta serverus u. c.) un kaitētu organizācijai.

Kā AI maina ekspluatāciju:

AI palīdz uzbrucējiem identificēt, izprast un izmantot sistēmas vājās vietas, automatizējot ievainojamību atklāšanu (piemēram, inteliģentu fuzzing un vadītu skenēšanu), konstruējot uzbrukumu kokus un piedāvājot izmantošanas ceļus. Tas var arī ģenerēt pretinieku ievaddatus, kas apiet drošības rīkus vai izmanto aizsardzības līdzekļus.

Ietekmes apjoms: Vidēja. AI uzlabo atklāšanas ātrumu un efektivitāti, jo īpaši attiecībā uz sarežģītām sistēmām.

Izceltais gadījums: Morris II AI tārps

2024. gadā, pētnieki tika demonstrēts jauns pašizplatīšanās tārpa veids, kas nebija balstīts uz tradicionālo programmatūras ievainojamību izmantošanu. Tā vietā tas bija vērsts pret pašām ģeneratīvajām AI sistēmām.

Nosaukts Morris II atsaucoties uz bēdīgi slaveno 1988. gada "Morris Worm", šajā koncepcijas pierādījuma uzbrukumā tika izmantoti pretinieku pamudinājumi, lai manipulētu ar AI modeļiem, lai tie reproducētu un izplatītu ļaunprātīgas instrukcijas. Kad sistēma bija "inficēta", tārps varēja autonomi ģenerēt turpmākus pamudinājumus, kas pamudināja AI replicēt uzbrukumu un pārsūtīt to citiem modeļiem.

Atšķirībā no tradicionālajiem tārpiem, kas parasti izmanto neaizpildītu kodu, Morris II izplatīšanos, izmantojot ģeneratīvās AI uzvedības atvērtību un neparedzamību. Demonstrējumā tika uzsvērts, ka, organizācijām arvien vairāk iekļaujot ģeneratīvo AI operatīvajās darba plūsmās, tās var atklāt jaunas uzbrukuma virsmas, kurās ievainojamība slēpjas nevis pirmkodā, bet gan mācību datos un modeļa reakcijās.

Papildu literatūra

Uzstādīšana

Uzbrucējs instalē ļaunprātīgu programmatūru vai aizmugurējos vārtus, lai saglabātu (slēptu) pastāvīgu piekļuvi un kontroli mērķsistēmā.

Kā AI maina uzstādīšanu:

AI var izstrādāt adaptīvas noturības metodes un, analizējot iepriekšējo posmu datus, ieteikt visefektīvākos uzstādīšanas vektorus, taču pilnīga niansēta, smaga lēmumu pieņemšanas posma automatizācija joprojām ir ierobežota. Ja AI tiek izmantots, AI ļauj ļaunprogrammatūrai mainīt uzvedību, lai izvairītos no atklāšanas, un izvēlēties optimālu laiku un iekļūšanas punktus.

Ietekmes apjoms: Vidēja. AI uzlabo noturību un slepenību, bet pilnīga automatizācija joprojām ir ierobežota, jo uzstādīšanai nepieciešami kontekstuāli lēmumi.

Izceltais gadījums: Izspiešanas programmatūra, kas iemācās slēpties

2024. gadā, pētnieki ieviesa sistēmu, kas pazīstama kā EGAN, AI modelis, kas izstrādāts, lai izpētītu, kā izspiedējvīrusu programmatūra varētu izmantot mācīšanās stratēģijas, lai izvairītos no atklāšanas. Atšķirībā no tradicionālās statiskās ļaunprātīgās programmatūras, kas vai nu tiek identificēta, vai arī netiek pamanīta, EGAN darbojās, veicot atkārtotus eksperimentus.

Sistēma atkārtoti modificēja izpircēju programmatūras kodu, testējot vairākus variantus, līdz tika izveidots tāds, kas spēja apiet pretvīrusu aizsardzību, vienlaikus saglabājot pilnu funkcionalitāti. Faktiski ļaunprogrammatūra "iemācījās", kā apiet uz anomālijām balstītus atklāšanas mehānismus, kas parasti efektīvi identificē aizdomīgu rīcību.

Lai gan tas ir radīts pētniecības vidē, EGAN parādīja, kā AI vadītie noturības mehānismi var ievērojami apgrūtināt izspiedējvīrusu atklāšanu un izskaušanu pēc to izvietošanas. Tā vietā, lai izvairītos no iepriekš noteiktām izvairīšanās metodēm, ļaunprogrammatūra dinamiski pielāgojās, tādējādi radot gandrīz "nenogalināmas" ļaunprātīgas programmatūras izredzes.

Papildu literatūra

Vadība un kontrole

Pēc vairāku sistēmu kontroles iegūšanas uzbrucējs izveido vadības centru, lai tās izmantotu attālināti. Uzbrucējs izveido attālinātu saziņu ar apdraudēto sistēmu, izmantojot dažādus kanālus (piemēram, tīmekli, DNS vai e-pastu), lai kontrolētu darbības un izvairītos no atklāšanas. Uzbrucējs izmanto dažādus paņēmienus, piemēram, aizsegšanu, lai slēptu savas pēdas un izvairītos no atklāšanas, vai pakalpojuma atteikuma (DoS) uzbrukumus, lai novērstu drošības speciālistu uzmanību no patiesajiem mērķiem.

Kā AI maina komandvadību un kontroli (C2):

AI nodrošina slepenāku C2 komunikāciju, ģenerējot likumīgas darbības imitējošu datplūsmu, izstrādājot izvairīgus domēnu ģenerēšanas algoritmus un organizējot decentralizētus, adaptīvus botnetus. Tā var arī pielāgot C2 uzvedību, lai izvairītos no anomāliju detektoriem.

Ietekmes apjoms: Vidēja. AI palielina C2 izsmalcinātību un elastību, bet operatīvie ierobežojumi ierobežo plašu ieviešanu.

Izceltais gadījums: AI-koordinēti botnetu tīkli, bari ar savu prātu

2023. gadā, pētnieki demonstrēja jauna veida botnetu, ko darbina AI. Parastie robottīkli parasti balstās uz centrālo vadības un kontroles (C2) serveri, caur kuru viens centrs izdod norādījumus, kurus pēc tam izpilda apdraudētās mašīnas jeb "roboti". Tomēr šo arhitektūru bieži vien var izjaukt, tiklīdz aizstāvji identificē un atslēdz centrālo serveri.

AI iespējotais botnets izmantoja citu modeli. Katrs tīkla mezgls izmantoja pastiprinājuma mācīšanos, lai autonomi noteiktu, kad sākt uzbrukumus, kurus mērķus vajāt un kā pielāgot taktiku, reaģējot uz aizsardzības pasākumiem. Tā vietā, lai gaidītu centralizētus norādījumus, roboti sadarbojās decentralizēti, darbojoties kā pašorganizējošs strops.

Šāda konstrukcija padarīja botnetu elastīgāku un grūtāk atklājamu. Pat ja daži mezgli tiktu neitralizēti, pārējie varētu pielāgoties un turpināt darboties. Aizsargu uzdevums vairs nebija tikai viena servera darbības pārtraukšana, bet gan vajadzēja cīnīties pret izkliedētu, adaptīvu kompromitēto iekārtu roju.

Papildu literatūra

Rīcība saistībā ar mērķiem

Uzbrucējs izpilda savu galīgo mērķi, piemēram, datu noplūdi, datu šifrēšanu vai datu iznīcināšanu.

Kā AI maina rīcību mērķu sasniegšanai:

AI paātrina un pilnveido uzbrukuma pēdējos uzdevumus: automatizētu datu eksfiltrāciju, augstas vērtības aktīvu prioritāšu noteikšanu, pielāgotu izspiešanas ziņojumu sūtīšanu un plaša mēroga satura ģenerēšanu dezinformācijai vai traucējumiem. Lai pieņemtu galīgos stratēģiskos lēmumus, bieži vien joprojām ir nepieciešams cilvēka vērtējums, taču AI saīsina ceļu līdz šiem lēmumiem.

Ietekmes apjoms: Vidēja. AI paātrina un palielina uz mērķi orientētu darbību apjomu, bet ne pilnībā aizstāj cilvēka nodomu.

Izceltais gadījums: PromptLocker, AI vadīta izspiedējvīrusa orķestrācija.

2024. gadā, Ņujorkas Universitātes pētnieki ieviesa PromptLocker, konceptuāla izpirkuma maku sistēma, ko kontrolē liels valodas modelis. Atšķirībā no parastās izspiedējvīrusu programmatūras, kas seko iepriekš noteiktai uzvedībai, PromptLocker pieņēma lēmumus reāllaikā un automatizēja vairākus uzbrukuma dzīves cikla posmus. Demonstrējumā modelis autonomi:

  • izvēlējās visvērtīgākos mērķus kompromitētajā sistēmā,
  • pirms šifrēšanas izfiltrēt sensitīvus datus, tādējādi palielinot ietekmi uz upuriem,
  • šifrētus sējumus un failus, lai liegtu piekļuvi.
  • ģenerēja pielāgotus izpirkuma pieprasījumus, pielāgojot to toni un prasības upura profilam (piemēram, finansiālajām iespējām un nozarei).

Lai gan darbs tika veikts kontrolētā pētniecības vidē, PromptLocker ilustrēja, kā ģeneratīvais AI var automatizēt un paplašināt uzdevumus, kuru plānošanai iepriekš bija nepieciešams cilvēks, tādējādi paātrinot uzbrucēju spēju sasniegt savus mērķus un pielāgoties mainīgajiem apstākļiem.

Papildu literatūra

Diskusijas jautājumi

Bibliogrāfija

"Prokrieviski orientēta dezinformācijas kampaņa izmanto bezmaksas AI rīkus, lai veicinātu "satura eksploziju" | WIRED". Skatīts 2025. gada 19. septembrī. https://www.wired.com/story/pro-russia-disinformation-campaign-free-ai-tools/. 

"Ar AI darbinātais PromptLocker Ransomware ir tikai Ņujorkas Universitātes pētniecības projekts - kods darbojās kā tipisks izspiedējprogrammatūras veids, izvēloties mērķus, eksfiltrējot atlasītos datus un šifrējot sējumus | Tom's Hardware". Piekļuve 2025. gada 19. septembrī. https://www.tomshardware.com/tech-industry/cyber-security/ai-powered-promptlocker-ransomware-is-just-an-nyu-research-project-the-code-worked-as-a-typical-ransomware-selecting-targets-exfiltrating-selected-data-and-encrypting-volumes. 

Al-Karaki, Jamal, Muhammad Al-Zafar Khan un Marwan Omar. "LLM izpēte ļaunprogrammatūras atklāšanai: ArXiv:2409.07587. Versija 1. Preprint, arXiv, 2024. gada 11. septembris. https://doi.org/10.48550/arXiv.2409.07587. 

Anderson, Hyrum S., Anant Kharkar, Bobby Filar, David Evans un Phil Roth. 'Learning to Evade Static PE Machine Learning Malware Models via Reinforcement Learning'. arXiv:1801.08917. Preprint, arXiv, 2018. gada 30. janvāris. https://doi.org/10.48550/arXiv.1801.08917. 

Anis, Fatima un Mohammad Hammoudeh. "AI izmantošana kiberuzbrukumos - salīdzinošs pētījums par AI balstītiem rīkiem ofensīvai drošībai". 8. starptautiskās konferences par nākotnes tīkliem un izplatītajām sistēmām materiāli, ACM, 2024. gada 11. decembris, 283-90. https://doi.org/10.1145/3726122.3726164. 

Buchanan, Ben. "Kiberdrošības un mākslīgā intelekta valsts drošības pētniecības programma". Drošības un jauno tehnoloģiju centrs, 2020. https://cset.georgetown.edu/publication/a-national-security-research-agenda-for-cybersecurity-and-artificial-intelligence/. 

Cohen, Stav, Ron Bitton un Ben Nassi. "Tuvojas AI tārps: ArXiv:2403.02817. arXiv:2403.02817. Versija 1. Preprint, arXiv, 2024. gada 5. marts. https://doi.org/10.48550/arXiv.2403.02817. 

Commey, Daniel, Benjamin Appiah, Bill K. Frimpong, Isaac Osei, Ebenezer N. A. Hammond un Garth V. Crosby. "EGAN: Evolutional GAN for Ransomware Evasion". 2023 IEEE 48. konference par lokālajiem datortīkliem (LCN), 2023. gada 2. oktobris, 1-9. https://doi.org/10.1109/LCN58197.2023.10223320. 

"Cyber Kill Chain® | Lockheed Martin". Skatīts 2025. gada 19. septembrī. https://www.lockheedmartin.com/en-us/capabilities/cyber/cyber-kill-chain.html. 

"Kiberdraudi ES: Fakti un skaitļi - Consilium". Skatīts 2025. gada 22. septembrī. https://www.consilium.europa.eu/en/policies/top-cyber-threats/. 

"Deepfake krāpnieki uzdodas par FTSE vadītājiem". Skatīts 2025. gada 19. septembrī. https://www.thetimes.com/business-money/technology/article/deepfake-fraudsters-impersonate-ftse-chief-executives-z9vvnz93l. 

Banalizēt lodziņu. "5 pretnoziegumu metodes, kas viltus izmeklētājiem (+ piemēri un atklāšanas padomi)". Piekļuve 2025. gada 19. septembrī. https://www.hackthebox.com/blog/anti-forensics-techniques. 

"Hakeri izmanto AI, lai analizētu draudu izlūkošanas ziņojumus un ļaunprātīgu programmatūru "Vibe Code" | IT Pro". Skatīts 2025. gada 19. septembrī. https://www.itpro.com/security/hackers-are-using-ai-to-dissect-threat-intelligence-reports-and-vibe-code-malware. 

Hūvera, Amanda. "Gudrais jaunais krāpšanas veids, ko jūsu banka nevar apturēt" (The Clever New Scam Your Bank Can't Stop). Business Insider. Skatīts 2025. gada 19. septembrī. https://www.businessinsider.com/bank-account-scam-deepfakes-ai-voice-generator-crime-fraud-2025-5. 

Huynh, Nam un Beiyu Lin. "Lieli valodas modeļi koda ģenerēšanai: A Comprehensive Survey of Challenges, Techniques, Evaluation, and Applications". arXiv:2503.01245. Preprint, arXiv, 2025. gada 2. aprīlis. https://doi.org/10.48550/arXiv.2503.01245. 

IBM Security X-Force Threat Intelligence Index 2023. n.d. 

Kolosnjaji, Bojan, Ambra Demontis, Battista Biggio u. c. "Adversarial Malware Binaries: ArXiv:1803.04173: Evading Deep Learning for Malware Detection in Executables. Preprint, arXiv, 2018. gada 12. marts. https://doi.org/10.48550/arXiv.1803.04173. 

Li, Haoyuan, Hao Jiang, Tao Jin, et al. 'DATE: Domain Adaptive Product Seeker for E-Commerce'. arXiv:2304.03669. Preprint, arXiv, 2023. gada 7. aprīlis. https://doi.org/10.48550/arXiv.2304.03669. 

Mirsky, Yisroel, Ambra Demontis, Jaidip Kotak et al. "The Threat of Offensive AI to Organizations". Datori un drošība 124 (2023. gada janvāris): 103006. https://doi.org/10.1016/j.cose.2022.103006. 

Piplai, Aritran, Sai Sree Laya Chukkapalli un Anupam Joshi. "Uzbrukums! Adversarial Attacks to Bypass a GAN Based Classifier Trained to Detect Network Intrusion". 2020 IEEE 6. starptautiskā konference par lielo datu drošību mākoņos (BigDataSecurity), IEEE starptautiskā konference par augstas veiktspējas un viedo skaitļošanu (HPSC) un IEEE starptautiskā konference par viedajiem datiem un drošību (IDS)., 2020. gada maijs, 49-54. https://doi.org/10.1109/BigDataSecurity-HPSC-IDS49724.2020.00020. 

"Polimorfā AI ļaunprogrammatūra: Reālās pasaules POC un atklāšana - CardinalOps". Piekļuve 2025. gada 19. septembrī. https://cardinalops.com/blog/polymorphic-ai-malware-detection/. 

Rid, Thomas. "Krievija pati sev stāsta melus". Ārlietas, 2024. gada 30. septembris. https://www.foreignaffairs.com/united-states/lies-russia-tells-itself. 

"Kiberdraudze kopš janvāra zaudēja 938 miljonus rubļu | Bengalūru Ziņas - Times of India". Skatīts 2025. gada 22. septembrī. https://timesofindia.indiatimes.com/city/bengaluru/rs-938-crore-lost-to-cybercrooks-since-jan/articleshow/122075324.cms. 

Schröer, Saskia Laura, Luca Pajola, Alberto Castagnaro, Giovanni Apruzzese un Mauro Conti. "AI izmantošana uzbrukumiem: On the Interplay between Adversarial AI and Offensive AI". arXiv:2506.12519. Versija 1. Preprint, arXiv, 2025. gada 14. jūnijs. https://doi.org/10.48550/arXiv.2506.12519. 

Sewak, Mohit, Sanjay K. Sahay un Hemant Rathore. "ADVERSARIALuscator: An Adversarial-DRL Based Obfuscator and Metamorphic Malware SwarmGenerator". 2021. gada Starptautiskā apvienotā neironu tīklu konference (IJCNN), 2021. gada 18. jūlijs, 1-9. https://doi.org/10.1109/IJCNN52387.2021.9534016. 

Temara, Sheetal. 'Maksimizēt iekļūšanas testēšanas panākumus ar efektīvām izlūkošanas metodēm, izmantojot ChatGPT'. arXiv:2307.06391. Preprint, arXiv, 2023. gada 20. marts. https://doi.org/10.48550/arXiv.2307.06391. 

Townsend, Kevin. "Savvaļā atrasta AI ģenerēta ļaunprogrammatūra". SecurityWeek, 2024. gada 24. septembris. https://www.securityweek.com/ai-generated-malware-found-in-the-wild/. 

Yamin, Muhammad Mudassar, Mohib Ullah, Habib Ullah un Basel Katt. "Weaponized AI for Cyber Attacks". Journal of Information Security and Applications 57 (2021. gada marts): 102722. https://doi.org/10.1016/j.jisa.2020.102722. 

Yang, Kai-Cheng, Danishjeet Singh un Filippo Menczer. "Viltotu sociālo mediju profilu ar AI ģenerētām sejām raksturojums un izplatība". Journal of Online Trust and Safety 2, nr. 4 (2024). https://doi.org/10.54501/jots.v2i4.197. 

Yu, Jingru, Yi Yu, Xuhong Wang u.c. "The Shadow of Fraud: The Emerging Danger of AI-Powered Social Engineering and Its Possible Cure". arXiv:2407.15912. Preprint, arXiv, 2024. gada 22. jūlijs. https://doi.org/10.48550/arXiv.2407.15912. 

Paldies, ka pierakstījāties mūsu biļetenam!

Paldies! RSVP saņemts AI kibernoziegumam

AI kibernoziegumos

Iekraušana...

Iekraušana...