AI în Infracțiuni cibernetice
Cum schimbă AI lanțul de ucidere cibernetică
Operațiunile cibernetice ofensive sunt acțiuni deliberate desfășurate în spațiul cibernetic pentru infiltrarea, perturbarea sau distrugerea sistemelor adversarului în vederea atingerii obiectivelor strategice. Acestea sunt de obicei încadrate prin Lanțul de ucidere cibernetică, un cadru dezvoltat inițial de Lockheed Martin. Cadrul împarte un atac într-o secvență structurată de faze, urmărind evoluția unui adversar de la recunoașterea inițială la acțiunile finale întreprinse pentru atingerea obiectivelor (de exemplu, exfiltrarea sau distrugerea datelor).
2
2
Înarmare
Cuplarea exploatării cu backdoor în sarcina utilă livrabilă
Livrare
Transmiterea pachetului armat către victimă prin e-mail, web, USB etc.
3
3
4
4
Exploatare
Exploatarea unei vulnerabilități pentru a executa cod pe sistemul victimei
Instalare
Instalarea de programe malware pe activ
5
5
6
6
Comandă și control (C2)
Canal de comandă pentru manipularea de la distanță a victimei
Acțiuni privind obiectivele
Cu accesul "Hands on Keyboard", intrușii își ating obiectivele inițiale
7
7
În ultimii ani, operațiunile cibernetice ofensive s-au intensificat atât în volum, cât și în complexitate. Atacurile cibernetice globale nu numai că sunt în creștere bruscă, ci și se diversifică ca tip: în 2022, 27% din atacurile cibernetice globale au fost bazate pe extorcare, 21% au implicat backdoors, iar 17% ransomware. Inteligența artificială (AI) joacă un rol major în această escaladare și diversificare, permițând noi forme de atac precum deepfakes sau swarm malware, consolidând în același timp vectorii tradiționali precum phishing-ul sau exploatarea vulnerabilităților. Conform Sondaj global CFO85% dintre profesioniștii din domeniul securității cibernetice atribuie creșterea numărului de atacuri armei generative AI. În Bengaluru, India, un raport de stat a confirmat această tendință: până la începutul anului 2025, 80% de e-mailuri de phishing au fost generate de AI.
AI transformă însuși lanțul de ucidere cibernetică și are potențialul de a supraîncărca fiecare etapă a campaniilor cibernetice ofensive. Viteza și amploarea cu care AI remodelează acest lanț au devenit o preocupare urgentă pentru securitatea națională.
Acest set de instrumente se concentrează în special pe AI ca instrument de atac, explorând modul în care acesta transformă diferitele etape ale lanțului cibernetic Kill Chain.
Recunoaștere
Atacatorul adună informații despre țintă, cum ar fi detalii despre angajați, e-mailuri sau date de sistem, pentru a-și planifica atacul.
Cum schimbă AI recunoașterea:
Caz evidențiat: ChatGPT ca asistent de recunoaștere
În 2024, Sheetal Tamara, cercetător în domeniul securității cibernetice a publicat o lucrare care demonstrează modul în care modelele lingvistice mari, cum ar fi ChatGPT, pot accelera foarte mult faza de recunoaștere a unui atac. În loc să petreacă ore întregi scriind scripturi și colectând manual informații din surse deschise, cercetătorul a folosit o serie scurtă de solicitări conversaționale, de exemplu "Enumerați toate subdomeniile pe care le puteți găsi pentru examplecompany.com", "Rezumați topologia rețelei companiei pe baza informațiilor disponibile public" și "Identificați ce sisteme de operare și servicii rulează cel mai probabil pe aceste servere".
În câteva minute, modelul a produs materiale de recunoaștere utile, inclusiv:
- o listă a domeniilor și subdomeniilor asociate cu societatea țintă
- intervale probabile de adrese IP
- note privind configurațiile SSL/TLS, porturile potențial deschise și serviciile comune
- informații publice despre angajați (de pe LinkedIn și din comunicate de presă) care ar putea fi utilizate pentru spear-phishing.
În cazul în care colectarea OSINT ar necesita în mod normal ore sau zile de muncă manuală, experimentul a redus sarcina la un flux de lucru conversațional care a necesitat mult mai puțină expertiză tehnică. Prin urmare, studiul subliniază modul în care modelele generative pot reduce barierele în calea recunoașterii automatizate, cu implicații clare pentru practicile defensive și modelarea amenințărilor.
-
Instrumente automatizate de scanare - "Weaponizing AI in Cyberattacks A Comparative Study of AI powered Tools for Offensive Security" (Annis & Hamoudeh 2025)
Studiul comparativ arată cum instrumentele automatizate (de exemplu, WebCopilot, Sublist3r, RustScan+Nmap) accelerează scanarea rețelei și enumerarea subdomeniilor. Rezultatele evidențiază modul în care AI ar putea automatiza în continuare sarcinile ofensive, cum ar fi simularea scenariilor de atac și adaptarea dinamică la apărări, deschizând calea pentru operațiuni de securitate ofensivă complet automatizate. -
AI instrumente pentru recunoaștere - "Amenințarea AI ofensivă pentru organizații" (Mirsky et al. 2023)
Studiul evidențiază 32 de instrumente ofensive AI care utilizează învățarea profundă, învățarea prin consolidare și NLP pentru a automatiza detectarea punctelor de intrare, crearea de personae și selectarea țintelor. Aceste instrumente îmbunătățesc OSINT, permit simulări realiste pentru phishing și permit chiar și atacatorilor neexperimentați să planifice și să lanseze campanii mai eficiente. -
Colectarea de informații și exploatarea automată - "Weaponized AI for cyber attacks" (Yamin et al. 2021)
Cercetarea investighează atacurile cibernetice recente care au utilizat tehnici bazate pe AI și identifică strategii de atenuare relevante. Ea evidențiază diverse instrumente AI (de exemplu, GyoiThon, Deep Exploit) care pot ajuta la colectarea de date privind sistemul, posibilele ținte și măsurile de apărare.
Înarmare
Atacatorul utilizează informațiile descoperite în timpul recunoașterii pentru a construi sau a personaliza o sarcină utilă rău intenționată (de exemplu, malware sau explozibili) și pentru a exploata punctele slabe ale țintei.
Cum schimbă AI utilizarea armelor:
AI raționalizează crearea și reglarea sarcinilor utile rău intenționate prin generarea sau modificarea codului și prin testarea variantelor în raport cu modelele de detectare. Acest lucru poate produce sarcini utile mai discrete, adaptive și direcționate, inclusiv variante polimorfe care își modifică aspectul la fiecare execuție. Testarea adversarială poate fi utilizată pentru a rafina sarcinile utile înainte de implementare.
Caz evidențiat: Malware dropper generat de AI în mediul natural
În 2024, analiști în securitate cibernetică a identificat o campanie de phishing care inițial părea de rutină: o serie de e-mailuri care distribuiau o încărcătură malware convențională. Cu toate acestea, o inspecție mai atentă a dropper-ului (adică micul program responsabil pentru instalarea și activarea malware-ului principal) a dezvăluit o caracteristică neobișnuită.
Structura și sintaxa dropper-ului indică faptul că acesta a fost generat de un model de limbaj mare, mai degrabă decât de un programator uman. Deși a funcționat ca un simplu wrapper, dropper-ul produs de AI a fost atât rafinat, cât și eficient, demonstrând capacitatea de a eluda metodele tradiționale de detectare. Acesta a reușit să ocolească semnăturile antivirus de bază și a livrat malware-ul conform intenției.
Această constatare a fost una dintre primele cazuri confirmate de răspândire în mediul natural a unui cod malițios generat de AI. Deși malware-ul de bază nu era nou, externalizarea unei părți a procesului de creare a armelor către AI a marcat o evoluție semnificativă. Aceasta a demonstrat modul în care atacatorii pot extinde operațiunile, reduce costurile de dezvoltare și se pot adapta mai rapid, complicând în același timp eforturile de detectare și răspuns.
-
Malware polimorfic îmbunătățit cu AI - "Polymorphic AI Malware: A Real-World POC and Detection Walkthrough" (Itkin 2025)
Articolul propune o dovadă a conceptului de malware polimorf alimentat cu AI care își rescrie codul în mod dinamic în timpul execuției pentru a se sustrage detectării, construit ca un keylogger care generează sarcini utile ofuscate pentru fiecare execuție. -
Modele mari de limbaj pentru generarea de cod - "Modele mari de limbaj pentru generarea de coduri: Un studiu cuprinzător al provocărilor, tehnicilor, evaluării și aplicațiilor" (Huynh & Lin 2025)
Studiul arată cum LLM-urile (de exemplu, CodeLlama, Copilot) pot genera în mod automat cod executabil din limbaj natural, reducând bariera pentru crearea de programe malware, dezvoltarea de exploit-uri și adaptarea sarcinilor utile de către atacatori. -
AI-generate tehnici noi de ofuscare - "ADVERSARIALuscator: Un Obfuscator bazat pe Adversarial-DRL și Metamorphic Malware SwarmGenerator" (Sewak et al. 2021)
Articolul prezintă ADVERSARIALuscator, un AI care poate rescrie automat codul malware pentru a crea mai multe versiuni și a arăta diferit de fiecare dată pentru a evita detectarea de către sistemele de securitate. În cadrul testelor, aproximativ o treime din aceste variante au reușit să ocolească sistemele de securitate avansate. -
AI-driven "vibe-coding" malware - "Hackerii folosesc AI pentru a diseca rapoartele de informații privind amenințările și programele malware "vibe code"" (Kelly 2025)
În acest articol de presă, cercetătorii în domeniul securității au raportat că hackerii utilizează AI generativ pentru a citi și interpreta rapoartele de informații privind amenințările, apoi produc automat programe malware funcționale. Supranumită "vibe-coding", această tehnică traduce în cod analize lizibile de către om, permițând adversarilor să transforme rapid cercetările publice în materie de securitate cibernetică în exploatări.
Livrare
Atacatorul lansează atacul prin transmiterea încărcăturii malițioase către țintă, adesea prin e-mailuri de phishing, site-uri web false sau rețele nesigure.
Cum schimbă AI livrarea:
AI adaptează și planifică mecanismele de livrare pentru a maximiza succesul. Acesta automatizează generarea de conținut de phishing convingător, deepfakes în timp real, interacțiuni de chat adaptive și pagini web frauduloase realiste și utilizează date de recunoaștere pentru a alege momentul și canalul optime pentru livrare. Acest lucru reduce nevoia de competențe umane în executarea campaniilor.
Caz evidențiat: Escrocheria Deepfake CEO la Arup
În 2024, personalul de la Firma britanică de inginerie Arup a primit ceea ce părea a fi un apel video legitim de la directorul executiv regional. Executivul a solicitat de urgență transferul de fonduri în legătură cu o tranzacție confidențială. Persoana de pe ecran a reprodus aspectul, vocea și manierele directorului general cu o acuratețe remarcabilă.
În realitate, interlocutorul nu era directorul, ci un deepfake generat prin AI, conceput pentru a-l imita în timp real. Convins de autenticitatea interacțiunii, personalul a autorizat o serie de transferuri în valoare de aproape 25 de milioane de dolari americani.
Acest incident reprezintă unul dintre cele mai mari cazuri raportate de inginerie socială bazată pe AI în timpul fazei de livrare a unui atac cibernetic. Acesta ilustrează faptul că phishing-ul nu mai trebuie să depindă de e-mailuri prost concepute sau de linkuri dubioase. În schimb, AI permite în prezent desfășurarea de imitații audio și video extrem de realiste care eludează nu numai controalele tehnice, ci și judecata și încrederea umană.
-
LLM-uri pentru inginerie socială și phishing la scară largă - "Explorarea LLM-urilor pentru detectarea programelor malware: Revizuire, proiectarea cadrului și abordări de contramăsură" (Al-Karaki & Khan 2024)
Articolul descrie modul în care LLM-urile pot fi utilizate pentru a automatiza conținutul de phishing, pentru a genera malware polimorf și pentru a crea intrări adversare. -
Inginerie socială bazată pe AI - "Umbra fraudei: Pericolul emergent al ingineriei sociale AI-powered și posibilul său remediu" (Yu et al. 2024)
Studiul arată modul în care modelele de difuzie și LLM fac phishing-ul și impersonarea mai personalizate și mai convingătoare. Acesta clasifică ingineria socială activată de AI în "faze 3E" (extindere, îmbogățire, apariție), subliniind modul în care atacatorii pot extinde campaniile, pot introduce vectori noi și pot exploata noi amenințări, ceea ce face ca transmiterea încărcăturilor malițioase să fie mai eficientă. -
Fraudă vocală generată de AI / phishing - "Mi-am înșelat banca" (Hoover 2025)
Un experiment jurnalistic care scoate la iveală vocea falsă generată de AI, folosită pentru înșelarea conturilor bancare.
Exploatare
Atacatorul declanșează sarcina utilă pentru a exploata o vulnerabilitate și a obține acces neautorizat la sistemul țintă. După infiltrarea în organizație, atacatorul utilizează acest acces pentru a se deplasa lateral între sisteme pentru a găsi informații relevante (de exemplu, date sensibile, vulnerabilități suplimentare, servere de e-mail etc.) și pentru a aduce prejudicii organizației.
Cum schimbă AI exploatarea:
AI ajută atacatorii să identifice, să înțeleagă și să exploateze punctele slabe ale sistemului prin automatizarea descoperirii vulnerabilităților (de exemplu, fuzzing inteligent și scanare ghidată), construirea arborilor de atac și propunerea de căi de exploatare. De asemenea, poate genera intrări adversare care ocolesc instrumentele de securitate sau exploatează sistemele de apărare.
Caz evidențiat: Viermele Morris II AI
În 2024, cercetători a demonstrat o nouă formă de vierme auto-propagator care nu se baza pe exploatarea vulnerabilităților software convenționale. În schimb, acesta viza chiar sistemele generative AI.
Numite Morris II cu referire la cunoscutul vierme Morris Worm din 1988, acest atac de tip "proof-of-concept" folosea indicații contradictorii pentru a manipula modelele AI să reproducă și să distribuie instrucțiuni malițioase. Odată ce un sistem a fost "infectat", viermele putea genera în mod autonom alte instrucțiuni care determinau AI să reproducă atacul și să îl transmită altor modele.
Spre deosebire de viermii tradiționali, care exploatează de obicei coduri nepansate, Morris II răspândit prin exploatarea deschiderii și imprevizibilității comportamentului generativ AI. Demonstrația a subliniat faptul că, pe măsură ce organizațiile integrează din ce în ce mai mult AI generativ în fluxurile de lucru operaționale, acestea pot expune noi suprafețe de atac în care vulnerabilitatea nu constă în codul sursă, ci în datele de formare și răspunsurile modelului.
-
Adversar și ofensator AI - "Exploatarea AI pentru atacuri: Interacțiunea dintre Adversarial AI și Offensive AI" (Shröer & Pajola 2025)
Studiul evidențiază modul în care atacatorii pot exploata vulnerabilitățile sistemelor AI prin contribuții adverse sau pot transforma AI în armă pentru a lansa exploatări mai eficiente împotriva țintelor tradiționale, subliniind rolul dublu al AI ca instrument și țintă în atacurile cibernetice. -
Binari malware adversari - "Adversarial Malware Binaries: Evading Deep Learning for Malware Detection in Executables" (Kolosnjarski et al. 2018)
Studiul prezintă atacuri bazate pe gradient care modifică mai puțin de 1% de octeți în executabile, păstrând în același timp funcționalitatea, evitând cu succes detectoarele de malware cu învățare profundă antrenate pe octeți brute.
Instalare
Atacatorul instalează programe malware sau backdoors pentru a menține accesul persistent (ascuns) și controlul în interiorul sistemului țintă.
Cum schimbă AI instalarea:
AI poate produce tehnici adaptive de persistență și poate sugera cei mai eficienți vectori de instalare prin analizarea datelor din etapele anterioare, însă automatizarea completă a fazei de instalare nuanțată și plină de decizii rămâne limitată. Atunci când este aplicată, AI permite programelor malware să își modifice comportamentul pentru a evita detectarea și pentru a selecta momentul optim și punctele de intrare.
Caz evidențiat: Ransomware care învață să se ascundă
În 2024, cercetători a introdus un sistem cunoscut sub numele de EGAN, un model AI dezvoltat pentru a explora modul în care ransomware ar putea utiliza strategii de învățare pentru a se sustrage detectării. Spre deosebire de programele malware statice tradiționale, care sunt fie identificate, fie trecute cu vederea, EGAN operate prin experimente iterative.
Sistemul a modificat în mod repetat codul ransomware-ului, testând variante succesive până când a produs unul care putea ocoli apărarea antivirus, păstrând în același timp funcționalitatea deplină. De fapt, malware-ul a "învățat" cum să ocolească mecanismele de detectare bazate pe anomalii care sunt în mod normal eficiente în identificarea comportamentelor suspecte.
Deși create într-un mediu de cercetare, EGAN a demonstrat modul în care mecanismele de persistență bazate pe AI ar putea face ca ransomware-ul să fie mult mai dificil de detectat și de eradicat odată implementat. În loc să depindă de tehnici de evitare predefinite, programele malware se adaptează dinamic, ridicând perspectiva unui software rău intenționat aproape "imposibil de ucis".
-
Eludarea malware-ului bazată pe RL - "Învățarea de a evita modelele malware de învățare automată PE statice prin învățarea prin consolidare" (Anderson et al. 2018)
Studiul arată modul în care agenții de învățare prin consolidare pot modifica iterativ programele malware Windows PE cu modificări care păstrează funcționalitatea pentru a evita detectoarele statice de programe malware de învățare automată, permițând instalarea adaptivă a programelor malware persistente, complet în cutie neagră.
Comandă și control
După ce obține controlul asupra mai multor sisteme, atacatorul creează un centru de control pentru a le exploata de la distanță. Atacatorul stabilește o comunicare la distanță cu sistemul compromis, prin diferite canale (de exemplu, web, DNS sau e-mail), pentru a controla operațiunile și a evita detectarea. Atacatorul utilizează diferite tehnici, cum ar fi ofuscarea pentru a-și acoperi urmele și a evita detectarea, sau atacuri de tip denial-of-service (DoS) pentru a distrage atenția profesioniștilor din domeniul securității de la adevăratele lor obiective.
Cum schimbă AI comanda și controlul (C2):
AI permite comunicații C2 mai secrete prin generarea de trafic care imită activitatea legitimă, conceperea de algoritmi evazivi de generare a domeniilor și orchestrarea de botnet-uri descentralizate și adaptive. De asemenea, poate regla comportamentul C2 pentru a eluda detectoarele de anomalii.
Caz evidențiat: Botnet-uri coordonate de AI, roiuri cu o minte proprie
În 2023, cercetători a demonstrat o nouă formă de botnet alimentat de AI. Rețelele bot convenționale se bazează de obicei pe un server central de comandă și control (C2) prin intermediul căruia un singur hub emite instrucțiuni pe care mașinile compromise, sau "bots", le execută. Cu toate acestea, această arhitectură poate fi adesea întreruptă odată ce apărătorii identifică și dezactivează serverul central.
Botnetul activat de AI a adoptat un model diferit. Fiecare nod din rețea a utilizat învățarea prin consolidare pentru a determina în mod autonom când să inițieze atacuri, ce ținte să urmărească și cum să își adapteze tactica ca răspuns la măsurile defensive. În loc să aștepte instrucțiuni centralizate, roboții au colaborat într-un mod descentralizat, funcționând ca o formă de stup autoorganizat.
Această concepție a făcut botnetul mai rezistent și mai dificil de detectat. Chiar dacă unele noduri erau neutralizate, restul se puteau adapta și continua să funcționeze. Pentru apărători, sarcina nu se mai limita la distrugerea unui singur server, ci trebuia să contracareze un roi distribuit și adaptabil de mașini compromise.
-
Falsificarea jurnalelor și ascunderea urmelor bazate pe AI - "5 tehnici anti-forensics pentru a păcăli investigatorii (+ exemple și sfaturi de detectare)" (CyberJunkie 2023)
Rapoartele din 2024-2025 au descris modul în care AI ar putea fi utilizat pentru a șterge sau modifica jurnalele digitale pentru a ascunde atacurile de anchetatori, deși exemplele reale complete sunt încă rare. -
Ocolirea sistemelor de detectare a intruziunilor în rețea bazate pe GAN - "NAttack! Adversarial Attacks to bypass a GAN based classifier trained to detect Network intrusion" (Piplai et al. 2020)
Studiul arată cum atacurile adversare pot eluda cu succes sistemele de detectare a intruziunilor antrenate de GAN, permițând atacatorilor să deghizeze traficul C2 în activitate normală de rețea.
Acțiuni privind obiectivele
Atacatorul își execută obiectivul final, cum ar fi exfiltrarea, criptarea sau distrugerea datelor.
Cum modifică AI acțiunea asupra obiectivelor:
AI accelerează și rafinează sarcinile finale ale unui atac: exfiltrarea automată a datelor, prioritizarea activelor de mare valoare, mesaje de extorcare personalizate și generarea de conținut la scară largă pentru dezinformare sau perturbare. Deseori, deciziile strategice finale necesită în continuare judecata umană, însă AI scurtează calea către aceste decizii.
Caz evidențiat: PromptLocker, o orchestrare a ransomware-ului condusă de AI
În 2024, cercetătorii de la Universitatea din New York au prezentat PromptLocker, un sistem ransomware de tip proof-of-concept controlat de un model lingvistic de mari dimensiuni. Spre deosebire de ransomware-ul convențional, care urmează comportamente predefinite, PromptLocker a luat decizii în timp real și a automatizat mai multe etape ale ciclului de viață al atacului. În cadrul demonstrației, modelul a funcționat autonom:
- selectarea celor mai valoroase ținte din cadrul unui sistem compromis,
- a exfiltrat date sensibile înainte de criptare, sporind influența asupra victimelor,
- volume și fișiere criptate pentru a refuza accesul
- a generat note de răscumpărare personalizate, adaptând tonul și cerințele la profilul victimei (de exemplu, capacitatea financiară și sectorul).
Deși lucrarea a fost efectuată într-un mediu de cercetare controlat, PromptLocker a ilustrat modul în care AI generativ poate automatiza și scala sarcini care anterior necesitau planificare umană, accelerând astfel capacitatea atacatorilor de a-și atinge obiectivele și de a se adapta la circumstanțele în schimbare.
-
Dezinformarea generată de AI la scară largă - "O campanie de dezinformare pro-rusă utilizează instrumentele gratuite AI pentru a alimenta o "explozie de conținut"" (Gilbert 2025)
Articolul explică modul în care campania Operation Overload (2023-2025), legată de Rusia, utilizează instrumentele AI pentru a produce în masă imagini false, videoclipuri și clipuri cu vocea clonată ale unor personalități publice. Acest material se răspândește pe scară largă prin intermediul rețelelor de roboți de pe rețelele de socializare pentru a promova narațiuni generatoare de dezbinare. -
AI-a creat profiluri sociale false pentru amplificare - "Caracteristicile și prevalența profilurilor false de social media cu fețe generate de AI" (Yang et al. 2024)
Ancheta a descoperit peste 1 400 de conturi Twitter care foloseau imagini de profil generate de AI, organizate în rețele pentru a promova înșelăciuni și mesaje cu încărcătură politică, mii de astfel de conturi fiind active zilnic. -
AI a creat documente și canale de știri false (psyops) - "Minciunile pe care Rusia și le spune singură Propagandiștii țării țintesc Occidentul - dar induc în eroare și Kremlinul" (Rid 2024)
Articolul explică modul în care o campanie Doppelgänger continuă a creat versiuni contrafăcute convingătoare ale site-urilor de știri legitime și a publicat articole generate de AI pentru a promova narațiuni pro-rusești în Occident.
Întrebări pentru discuții
- Care etapă a lanțului de distrugere cibernetică este susceptibilă de a fi transformată cel mai mult de AI în viitor și de ce? Și în prezent, în ce etapă AI oferă cele mai promițătoare rezultate pentru atacatori? În ce etapă implementarea AI pare mai puțin eficientă și promițătoare?
- Înclină AI avantajul în spațiul cibernetic mai mult către atacatori sau către apărători?
- Accesul pe scară largă la AI va egaliza terenul de joc pentru amatori sau va împuternici adversarii bine finanțați?
- Cum schimbă natura atacurilor cibernetice capacitatea AI de a automatiza și accelera lanțul de distrugere cibernetică?
- Ar putea AI să facă atacurile atât de rapide și adaptabile încât cadrele de apărare tradiționale să devină depășite?
- Cine poartă responsabilitatea atunci când modelele AI sunt utilizate în mod abuziv pentru atacuri cibernetice: dezvoltatorii, implementatorii sau atacatorii?
- Cum pot factorii de decizie politică să reglementeze AI ofensiv fără a înăbuși inovarea în aplicații defensive sau civile?
- Va împinge AI conflictul cibernetic către un război mai autonom, "mașină pe mașină"?
- Ar putea AI să schimbe fundamental modelul lanțului de ucidere cibernetică în ceva neliniar și continuu adaptabil?