AI în Infracțiuni cibernetice

Cum schimbă AI lanțul de ucidere cibernetică

Operațiunile cibernetice ofensive sunt acțiuni deliberate desfășurate în spațiul cibernetic pentru infiltrarea, perturbarea sau distrugerea sistemelor adversarului în vederea atingerii obiectivelor strategice. Acestea sunt de obicei încadrate prin Lanțul de ucidere cibernetică, un cadru dezvoltat inițial de Lockheed Martin. Cadrul împarte un atac într-o secvență structurată de faze, urmărind evoluția unui adversar de la recunoașterea inițială la acțiunile finale întreprinse pentru atingerea obiectivelor (de exemplu, exfiltrarea sau distrugerea datelor).

2

2

Înarmare

Cuplarea exploatării cu backdoor în sarcina utilă livrabilă

Livrare

Transmiterea pachetului armat către victimă prin e-mail, web, USB etc.

3

3

4

4

Exploatare

Exploatarea unei vulnerabilități pentru a executa cod pe sistemul victimei

Instalare

Instalarea de programe malware pe activ

5

5

6

6

Comandă și control (C2)

Canal de comandă pentru manipularea de la distanță a victimei

Acțiuni privind obiectivele

Cu accesul "Hands on Keyboard", intrușii își ating obiectivele inițiale

7

7

În ultimii ani, operațiunile cibernetice ofensive s-au intensificat atât în volum, cât și în complexitate. Atacurile cibernetice globale nu numai că sunt în creștere bruscă, ci și se diversifică ca tip: în 2022, 27% din atacurile cibernetice globale au fost bazate pe extorcare, 21% au implicat backdoors, iar 17% ransomware. Inteligența artificială (AI) joacă un rol major în această escaladare și diversificare, permițând noi forme de atac precum deepfakes sau swarm malware, consolidând în același timp vectorii tradiționali precum phishing-ul sau exploatarea vulnerabilităților. Conform Sondaj global CFO85% dintre profesioniștii din domeniul securității cibernetice atribuie creșterea numărului de atacuri armei generative AI. În Bengaluru, India, un raport de stat a confirmat această tendință: până la începutul anului 2025, 80% de e-mailuri de phishing au fost generate de AI.

AI transformă însuși lanțul de ucidere cibernetică și are potențialul de a supraîncărca fiecare etapă a campaniilor cibernetice ofensive. Viteza și amploarea cu care AI remodelează acest lanț au devenit o preocupare urgentă pentru securitatea națională.

Acest set de instrumente se concentrează în special pe AI ca instrument de atac, explorând modul în care acesta transformă diferitele etape ale lanțului cibernetic Kill Chain.

Recunoaștere

Atacatorul adună informații despre țintă, cum ar fi detalii despre angajați, e-mailuri sau date de sistem, pentru a-și planifica atacul.

Cum schimbă AI recunoașterea:

AI automatizează și accelerează colectarea de informații din surse deschise prin prelucrarea unor volume mari de date publice (social media, site-uri corporative, înregistrări divulgate) și prin extragerea unor artefacte structurate, cum ar fi subdomeniile, intervalele IP probabile și profilurile angajaților. De asemenea, reduce bariera competențelor pentru ingineria socială țintită prin producerea de profiluri concise ale victimelor, potrivite pentru spear-phishing.
Gradul de impact: ridicat. OSINT automatizat reduce substanțial timpul și expertiza necesare.

Caz evidențiat: ChatGPT ca asistent de recunoaștere

În 2024, Sheetal Tamara, cercetător în domeniul securității cibernetice a publicat o lucrare care demonstrează modul în care modelele lingvistice mari, cum ar fi ChatGPT, pot accelera foarte mult faza de recunoaștere a unui atac. În loc să petreacă ore întregi scriind scripturi și colectând manual informații din surse deschise, cercetătorul a folosit o serie scurtă de solicitări conversaționale, de exemplu "Enumerați toate subdomeniile pe care le puteți găsi pentru examplecompany.com", "Rezumați topologia rețelei companiei pe baza informațiilor disponibile public" și "Identificați ce sisteme de operare și servicii rulează cel mai probabil pe aceste servere".

În câteva minute, modelul a produs materiale de recunoaștere utile, inclusiv:

  • o listă a domeniilor și subdomeniilor asociate cu societatea țintă
  • intervale probabile de adrese IP
  • note privind configurațiile SSL/TLS, porturile potențial deschise și serviciile comune
  • informații publice despre angajați (de pe LinkedIn și din comunicate de presă) care ar putea fi utilizate pentru spear-phishing.

În cazul în care colectarea OSINT ar necesita în mod normal ore sau zile de muncă manuală, experimentul a redus sarcina la un flux de lucru conversațional care a necesitat mult mai puțină expertiză tehnică. Prin urmare, studiul subliniază modul în care modelele generative pot reduce barierele în calea recunoașterii automatizate, cu implicații clare pentru practicile defensive și modelarea amenințărilor.

Lecturi suplimentare

Înarmare

Atacatorul utilizează informațiile descoperite în timpul recunoașterii pentru a construi sau a personaliza o sarcină utilă rău intenționată (de exemplu, malware sau explozibili) și pentru a exploata punctele slabe ale țintei.

Cum schimbă AI utilizarea armelor:

AI raționalizează crearea și reglarea sarcinilor utile rău intenționate prin generarea sau modificarea codului și prin testarea variantelor în raport cu modelele de detectare. Acest lucru poate produce sarcini utile mai discrete, adaptive și direcționate, inclusiv variante polimorfe care își modifică aspectul la fiecare execuție. Testarea adversarială poate fi utilizată pentru a rafina sarcinile utile înainte de implementare.

Gradul de impact: ridicat. Automatizarea accelerează și scalează dezvoltarea încărcăturii utile.

Caz evidențiat: Malware dropper generat de AI în mediul natural

În 2024, analiști în securitate cibernetică a identificat o campanie de phishing care inițial părea de rutină: o serie de e-mailuri care distribuiau o încărcătură malware convențională. Cu toate acestea, o inspecție mai atentă a dropper-ului (adică micul program responsabil pentru instalarea și activarea malware-ului principal) a dezvăluit o caracteristică neobișnuită.

Structura și sintaxa dropper-ului indică faptul că acesta a fost generat de un model de limbaj mare, mai degrabă decât de un programator uman. Deși a funcționat ca un simplu wrapper, dropper-ul produs de AI a fost atât rafinat, cât și eficient, demonstrând capacitatea de a eluda metodele tradiționale de detectare. Acesta a reușit să ocolească semnăturile antivirus de bază și a livrat malware-ul conform intenției.

Această constatare a fost una dintre primele cazuri confirmate de răspândire în mediul natural a unui cod malițios generat de AI. Deși malware-ul de bază nu era nou, externalizarea unei părți a procesului de creare a armelor către AI a marcat o evoluție semnificativă. Aceasta a demonstrat modul în care atacatorii pot extinde operațiunile, reduce costurile de dezvoltare și se pot adapta mai rapid, complicând în același timp eforturile de detectare și răspuns.

Lecturi suplimentare

Livrare

Atacatorul lansează atacul prin transmiterea încărcăturii malițioase către țintă, adesea prin e-mailuri de phishing, site-uri web false sau rețele nesigure.

Cum schimbă AI livrarea:

AI adaptează și planifică mecanismele de livrare pentru a maximiza succesul. Acesta automatizează generarea de conținut de phishing convingător, deepfakes în timp real, interacțiuni de chat adaptive și pagini web frauduloase realiste și utilizează date de recunoaștere pentru a alege momentul și canalul optime pentru livrare. Acest lucru reduce nevoia de competențe umane în executarea campaniilor.

Gradul de impact: ridicat. AI sporește semnificativ puterea de convingere și automatizarea livrării.

Caz evidențiat: Escrocheria Deepfake CEO la Arup

În 2024, personalul de la Firma britanică de inginerie Arup a primit ceea ce părea a fi un apel video legitim de la directorul executiv regional. Executivul a solicitat de urgență transferul de fonduri în legătură cu o tranzacție confidențială. Persoana de pe ecran a reprodus aspectul, vocea și manierele directorului general cu o acuratețe remarcabilă.

În realitate, interlocutorul nu era directorul, ci un deepfake generat prin AI, conceput pentru a-l imita în timp real. Convins de autenticitatea interacțiunii, personalul a autorizat o serie de transferuri în valoare de aproape 25 de milioane de dolari americani.

Acest incident reprezintă unul dintre cele mai mari cazuri raportate de inginerie socială bazată pe AI în timpul fazei de livrare a unui atac cibernetic. Acesta ilustrează faptul că phishing-ul nu mai trebuie să depindă de e-mailuri prost concepute sau de linkuri dubioase. În schimb, AI permite în prezent desfășurarea de imitații audio și video extrem de realiste care eludează nu numai controalele tehnice, ci și judecata și încrederea umană.

Lecturi suplimentare

Exploatare

Atacatorul declanșează sarcina utilă pentru a exploata o vulnerabilitate și a obține acces neautorizat la sistemul țintă. După infiltrarea în organizație, atacatorul utilizează acest acces pentru a se deplasa lateral între sisteme pentru a găsi informații relevante (de exemplu, date sensibile, vulnerabilități suplimentare, servere de e-mail etc.) și pentru a aduce prejudicii organizației.

Cum schimbă AI exploatarea:

AI ajută atacatorii să identifice, să înțeleagă și să exploateze punctele slabe ale sistemului prin automatizarea descoperirii vulnerabilităților (de exemplu, fuzzing inteligent și scanare ghidată), construirea arborilor de atac și propunerea de căi de exploatare. De asemenea, poate genera intrări adversare care ocolesc instrumentele de securitate sau exploatează sistemele de apărare.

Gradul de impact: Mediu. AI îmbunătățește viteza și eficiența descoperirii, în special împotriva sistemelor complexe.

Caz evidențiat: Viermele Morris II AI

În 2024, cercetători a demonstrat o nouă formă de vierme auto-propagator care nu se baza pe exploatarea vulnerabilităților software convenționale. În schimb, acesta viza chiar sistemele generative AI.

Numite Morris II cu referire la cunoscutul vierme Morris Worm din 1988, acest atac de tip "proof-of-concept" folosea indicații contradictorii pentru a manipula modelele AI să reproducă și să distribuie instrucțiuni malițioase. Odată ce un sistem a fost "infectat", viermele putea genera în mod autonom alte instrucțiuni care determinau AI să reproducă atacul și să îl transmită altor modele.

Spre deosebire de viermii tradiționali, care exploatează de obicei coduri nepansate, Morris II răspândit prin exploatarea deschiderii și imprevizibilității comportamentului generativ AI. Demonstrația a subliniat faptul că, pe măsură ce organizațiile integrează din ce în ce mai mult AI generativ în fluxurile de lucru operaționale, acestea pot expune noi suprafețe de atac în care vulnerabilitatea nu constă în codul sursă, ci în datele de formare și răspunsurile modelului.

Lecturi suplimentare

Instalare

Atacatorul instalează programe malware sau backdoors pentru a menține accesul persistent (ascuns) și controlul în interiorul sistemului țintă.

Cum schimbă AI instalarea:

AI poate produce tehnici adaptive de persistență și poate sugera cei mai eficienți vectori de instalare prin analizarea datelor din etapele anterioare, însă automatizarea completă a fazei de instalare nuanțată și plină de decizii rămâne limitată. Atunci când este aplicată, AI permite programelor malware să își modifice comportamentul pentru a evita detectarea și pentru a selecta momentul optim și punctele de intrare.

Gradul de impact: Medie. AI îmbunătățește persistența și invizibilitatea, dar automatizarea completă rămâne limitată deoarece instalarea necesită decizii contextuale.

Caz evidențiat: Ransomware care învață să se ascundă

În 2024, cercetători a introdus un sistem cunoscut sub numele de EGAN, un model AI dezvoltat pentru a explora modul în care ransomware ar putea utiliza strategii de învățare pentru a se sustrage detectării. Spre deosebire de programele malware statice tradiționale, care sunt fie identificate, fie trecute cu vederea, EGAN operate prin experimente iterative.

Sistemul a modificat în mod repetat codul ransomware-ului, testând variante succesive până când a produs unul care putea ocoli apărarea antivirus, păstrând în același timp funcționalitatea deplină. De fapt, malware-ul a "învățat" cum să ocolească mecanismele de detectare bazate pe anomalii care sunt în mod normal eficiente în identificarea comportamentelor suspecte.

Deși create într-un mediu de cercetare, EGAN a demonstrat modul în care mecanismele de persistență bazate pe AI ar putea face ca ransomware-ul să fie mult mai dificil de detectat și de eradicat odată implementat. În loc să depindă de tehnici de evitare predefinite, programele malware se adaptează dinamic, ridicând perspectiva unui software rău intenționat aproape "imposibil de ucis".

Lecturi suplimentare

Comandă și control

După ce obține controlul asupra mai multor sisteme, atacatorul creează un centru de control pentru a le exploata de la distanță. Atacatorul stabilește o comunicare la distanță cu sistemul compromis, prin diferite canale (de exemplu, web, DNS sau e-mail), pentru a controla operațiunile și a evita detectarea. Atacatorul utilizează diferite tehnici, cum ar fi ofuscarea pentru a-și acoperi urmele și a evita detectarea, sau atacuri de tip denial-of-service (DoS) pentru a distrage atenția profesioniștilor din domeniul securității de la adevăratele lor obiective.

Cum schimbă AI comanda și controlul (C2):

AI permite comunicații C2 mai secrete prin generarea de trafic care imită activitatea legitimă, conceperea de algoritmi evazivi de generare a domeniilor și orchestrarea de botnet-uri descentralizate și adaptive. De asemenea, poate regla comportamentul C2 pentru a eluda detectoarele de anomalii.

Gradul de impact: Mediu. AI sporește sofisticarea și reziliența C2, dar constrângerile operaționale limitează adoptarea pe scară largă.

Caz evidențiat: Botnet-uri coordonate de AI, roiuri cu o minte proprie

În 2023, cercetători a demonstrat o nouă formă de botnet alimentat de AI. Rețelele bot convenționale se bazează de obicei pe un server central de comandă și control (C2) prin intermediul căruia un singur hub emite instrucțiuni pe care mașinile compromise, sau "bots", le execută. Cu toate acestea, această arhitectură poate fi adesea întreruptă odată ce apărătorii identifică și dezactivează serverul central.

Botnetul activat de AI a adoptat un model diferit. Fiecare nod din rețea a utilizat învățarea prin consolidare pentru a determina în mod autonom când să inițieze atacuri, ce ținte să urmărească și cum să își adapteze tactica ca răspuns la măsurile defensive. În loc să aștepte instrucțiuni centralizate, roboții au colaborat într-un mod descentralizat, funcționând ca o formă de stup autoorganizat.

Această concepție a făcut botnetul mai rezistent și mai dificil de detectat. Chiar dacă unele noduri erau neutralizate, restul se puteau adapta și continua să funcționeze. Pentru apărători, sarcina nu se mai limita la distrugerea unui singur server, ci trebuia să contracareze un roi distribuit și adaptabil de mașini compromise.

Lecturi suplimentare

Acțiuni privind obiectivele

Atacatorul își execută obiectivul final, cum ar fi exfiltrarea, criptarea sau distrugerea datelor.

Cum modifică AI acțiunea asupra obiectivelor:

AI accelerează și rafinează sarcinile finale ale unui atac: exfiltrarea automată a datelor, prioritizarea activelor de mare valoare, mesaje de extorcare personalizate și generarea de conținut la scară largă pentru dezinformare sau perturbare. Deseori, deciziile strategice finale necesită în continuare judecata umană, însă AI scurtează calea către aceste decizii.

Gradul de impact: Mediu. AI accelerează și scalează activitatea orientată către obiective, dar nu înlocuiește în totalitate intenția umană.

Caz evidențiat: PromptLocker, o orchestrare a ransomware-ului condusă de AI

În 2024, cercetătorii de la Universitatea din New York au prezentat PromptLocker, un sistem ransomware de tip proof-of-concept controlat de un model lingvistic de mari dimensiuni. Spre deosebire de ransomware-ul convențional, care urmează comportamente predefinite, PromptLocker a luat decizii în timp real și a automatizat mai multe etape ale ciclului de viață al atacului. În cadrul demonstrației, modelul a funcționat autonom:

  • selectarea celor mai valoroase ținte din cadrul unui sistem compromis,
  • a exfiltrat date sensibile înainte de criptare, sporind influența asupra victimelor,
  • volume și fișiere criptate pentru a refuza accesul
  • a generat note de răscumpărare personalizate, adaptând tonul și cerințele la profilul victimei (de exemplu, capacitatea financiară și sectorul).

Deși lucrarea a fost efectuată într-un mediu de cercetare controlat, PromptLocker a ilustrat modul în care AI generativ poate automatiza și scala sarcini care anterior necesitau planificare umană, accelerând astfel capacitatea atacatorilor de a-și atinge obiectivele și de a se adapta la circumstanțele în schimbare.

Lecturi suplimentare

Întrebări pentru discuții

Bibliografie

"O campanie de dezinformare pro-rusă utilizează instrumentele gratuite AI pentru a alimenta o "explozie de conținut" | WIRED". Accesat la 19 septembrie 2025. https://www.wired.com/story/pro-russia-disinformation-campaign-free-ai-tools/. 

Ransomware-ul PromptLocker alimentat de AI este doar un proiect de cercetare NYU - codul a funcționat ca un Ransomware tipic, selectând țintele, exfiltrând datele selectate și criptând volumele | Tom's Hardware". Accesat la 19 septembrie 2025. https://www.tomshardware.com/tech-industry/cyber-security/ai-powered-promptlocker-ransomware-is-just-an-nyu-research-project-the-code-worked-as-a-typical-ransomware-selecting-targets-exfiltrating-selected-data-and-encrypting-volumes. 

Al-Karaki, Jamal, Muhammad Al-Zafar Khan și Marwan Omar. "Explorarea LLM-urilor pentru detectarea programelor malware: Review, Framework Design, and Countermeasure Approaches'. arXiv:2409.07587. Versiunea 1. Preprint, arXiv, 11 septembrie 2024. https://doi.org/10.48550/arXiv.2409.07587. 

Anderson, Hyrum S., Anant Kharkar, Bobby Filar, David Evans și Phil Roth. "Learning to Evade Static PE Machine Learning Malware Models via Reinforcement Learning". arXiv:1801.08917. Preprint, arXiv, 30 ianuarie 2018. https://doi.org/10.48550/arXiv.1801.08917. 

Anis, Fatima și Mohammad Hammoudeh. "Weaponizing AI in Cyberattacks A Comparative Study of AI Powered Tools for Offensive Security". Proceedings of the 8th International Conference on Future Networks & Distributed Systems, ACM, 11 decembrie 2024, 283-90. https://doi.org/10.1145/3726122.3726164. 

Buchanan, Ben. "A National Security Research Agenda for Cybersecurity and Artificial Intelligence". Centrul pentru Securitate și Tehnologii Emergente, 2020. https://cset.georgetown.edu/publication/a-national-security-research-agenda-for-cybersecurity-and-artificial-intelligence/. 

Cohen, Stav, Ron Bitton și Ben Nassi. "Aici vine viermele AI: Unleashing Zero-Click Worms That Target GenAI-Powered Applications". arXiv:2403.02817. Versiunea 1. Preprint, arXiv, 5 martie 2024. https://doi.org/10.48550/arXiv.2403.02817. 

Commey, Daniel, Benjamin Appiah, Bill K. Frimpong, Isaac Osei, Ebenezer N. A. Hammond și Garth V. Crosby. "EGAN: Evolutional GAN for Ransomware Evasion". 2023 A 48-a Conferință IEEE privind rețelele locale de calculatoare (LCN), 2 octombrie 2023, 1-9. https://doi.org/10.1109/LCN58197.2023.10223320. 

"Cyber Kill Chain® | Lockheed Martin". Accesat la 19 septembrie 2025. https://www.lockheedmartin.com/en-us/capabilities/cyber/cyber-kill-chain.html. 

"Amenințările cibernetice în UE: Fapte și cifre - Consilium". Accesat la 22 septembrie 2025. https://www.consilium.europa.eu/en/policies/top-cyber-threats/. 

"Deepfake Fraudsters Impersonate FTSE Chief Executives". Accesat la 19 septembrie 2025. https://www.thetimes.com/business-money/technology/article/deepfake-fraudsters-impersonate-ftse-chief-executives-z9vvnz93l. 

Hack The Box. "5 tehnici anti-Forensics pentru păcălirea investigatorilor (+ exemple și sfaturi de detectare)". Accesat la 19 septembrie 2025. https://www.hackthebox.com/blog/anti-forensics-techniques. 

"Hackerii folosesc AI pentru a diseca rapoartele de informații privind amenințările și malware-ul "Vibe Code" | IT Pro". Accesat la 19 septembrie 2025. https://www.itpro.com/security/hackers-are-using-ai-to-dissect-threat-intelligence-reports-and-vibe-code-malware. 

Hoover, Amanda. "The Clever New Scam Your Bank Can't Stop" (Noua înșelătorie inteligentă pe care banca ta nu o poate opri). Business Insider. Accesat la 19 septembrie 2025. https://www.businessinsider.com/bank-account-scam-deepfakes-ai-voice-generator-crime-fraud-2025-5. 

Huynh, Nam, și Beiyu Lin. "Modele lingvistice mari pentru generarea de coduri: A Comprehensive Survey of Challenges, Techniques, Evaluation, and Applications'. arXiv:2503.01245. Preprint, arXiv, 2 aprilie 2025. https://doi.org/10.48550/arXiv.2503.01245. 

IBM Security X-Force Threat Intelligence Index 2023. n.d. 

Kolosnjaji, Bojan, Ambra Demontis, Battista Biggio, et al. "Adversarial Malware Binaries: Evading Deep Learning for Malware Detection in Executables". arXiv:1803.04173. Preprint, arXiv, 12 martie 2018. https://doi.org/10.48550/arXiv.1803.04173. 

Li, Haoyuan, Hao Jiang, Tao Jin, et al. "DATE: Domain Adaptive Product Seeker for E-Commerce". arXiv:2304.03669. Preprint, arXiv, 7 aprilie 2023. https://doi.org/10.48550/arXiv.2304.03669. 

Mirsky, Yisroel, Ambra Demontis, Jaidip Kotak, et al. "The Threat of Offensive AI to Organizations". Calculatoare și securitate 124 (ianuarie 2023): 103006. https://doi.org/10.1016/j.cose.2022.103006. 

Piplai, Aritran, Sai Sree Laya Chukkapalli și Anupam Joshi. 'NAttack! Adversarial Attacks to Bypass a GAN Based Classifier Trained to Detect Network Intrusion". 2020 IEEE 6th Intl Conference on Big Data Security on Cloud (BigDataSecurity), IEEE Intl Conference on High Performance and Smart Computing, (HPSC) și IEEE Intl Conference on Intelligent Data and Security (IDS), mai 2020, 49-54. https://doi.org/10.1109/BigDataSecurity-HPSC-IDS49724.2020.00020. 

'Polymorphic AI Malware: A Real-World POC and Detection Walkthrough - CardinalOps". Accesat la 19 septembrie 2025. https://cardinalops.com/blog/polymorphic-ai-malware-detection/. 

Rid, Thomas. "The Lies Russia Tells Itself" (Minciunile pe care Rusia și le spune singură). Afaceri externe, 30 septembrie 2024. https://www.foreignaffairs.com/united-states/lies-russia-tells-itself. 

'Rs 938 Crore Lost to Cybercrooks since Jan | Bengaluru News - Times of India'. Accesat la 22 septembrie 2025. https://timesofindia.indiatimes.com/city/bengaluru/rs-938-crore-lost-to-cybercrooks-since-jan/articleshow/122075324.cms. 

Schröer, Saskia Laura, Luca Pajola, Alberto Castagnaro, Giovanni Apruzzese și Mauro Conti. "Exploatarea AI pentru atacuri: On the Interplay between Adversarial AI and Offensive AI". arXiv:2506.12519. Versiunea 1. Preprint, arXiv, 14 iunie 2025. https://doi.org/10.48550/arXiv.2506.12519. 

Sewak, Mohit, Sanjay K. Sahay și Hemant Rathore. "ADVERSARIALuscator: An Adversarial-DRL Based Obfuscator and Metamorphic Malware SwarmGenerator". 2021 Conferința internațională comună privind rețelele neuronale (IJCNN), 18 iulie 2021, 1-9. https://doi.org/10.1109/IJCNN52387.2021.9534016. 

Temara, Sheetal. Maximizing Penetration Testing Success with Effective Reconnaissance Techniques Using ChatGPT". arXiv:2307.06391. Preprint, arXiv, 20 martie 2023. https://doi.org/10.48550/arXiv.2307.06391. 

Townsend, Kevin. "AI-Generated Malware Found in the Wild". SecurityWeek, 24 septembrie 2024. https://www.securityweek.com/ai-generated-malware-found-in-the-wild/. 

Yamin, Muhammad Mudassar, Mohib Ullah, Habib Ullah și Basel Katt. "Weaponized AI for Cyber Attacks". Jurnalul de securitate a informațiilor și aplicații 57 (martie 2021): 102722. https://doi.org/10.1016/j.jisa.2020.102722. 

Yang, Kai-Cheng, Danishjeet Singh și Filippo Menczer. "Caracteristicile și prevalența profilurilor false de social media cu fețe generate de AI". Jurnal de încredere și siguranță online 2, nr. 4 (2024). https://doi.org/10.54501/jots.v2i4.197. 

Yu, Jingru, Yi Yu, Xuhong Wang, et al. "The Shadow of Fraud: The Emerging Danger of AI-Powered Social Engineering and Its Possible Cure". arXiv:2407.15912. Preprint, arXiv, 22 iulie 2024. https://doi.org/10.48550/arXiv.2407.15912. 

Vă mulțumim pentru că v-ați abonat la newsletter-ul nostru!

Vă mulțumim! RSVP primit pentru AI în infracțiunea cibernetică

AI în infracțiunea cibernetică

Încărcare...

Încărcare...