AI in Reati informatici
Come l'AI cambia la catena di morte informatica
Le operazioni informatiche offensive sono azioni deliberate condotte nel cyberspazio per infiltrarsi, interrompere o distruggere i sistemi avversari nel perseguimento di obiettivi strategici. Sono comunemente inquadrate come Catena di morte informatica, un framework originariamente sviluppato da Lockheed Martin. Il framework suddivide un attacco in una sequenza strutturata di fasi, tracciando la progressione dell'avversario dalla ricognizione iniziale alle azioni finali intraprese per raggiungere gli obiettivi (ad esempio, l'esfiltrazione o la distruzione dei dati).
2
2
Armamento
Accoppiamento dell'exploit con la backdoor in un payload consegnabile
Consegna
Consegna di bundle armati alla vittima via e-mail, web, USB, ecc.
3
3
4
4
Sfruttamento
Sfruttamento di una vulnerabilità per eseguire codice sul sistema della vittima
Installazione
Installazione di malware sulla risorsa
5
5
6
6
Comando e controllo (C2)
Canale di comando per la manipolazione a distanza della vittima
Azioni sugli obiettivi
Con l'accesso "mani sulla tastiera", gli intrusi raggiungono i loro obiettivi originari
7
7
Negli ultimi anni, le operazioni informatiche offensive si sono intensificate sia in termini di volume che di complessità. I cyberattacchi globali non solo sono in forte aumento, ma si stanno anche diversificando per tipologia: nel 2022, 27% dei cyberattacchi globali sono stati basati su estorsioni, 21% hanno coinvolto backdoor e 17% ransomware.. L'intelligenza artificiale (AI) sta svolgendo un ruolo importante in questa escalation e diversificazione, consentendo nuove forme di attacco come deepfakes o swarm malware, rafforzando al contempo vettori tradizionali come il phishing o lo sfruttamento delle vulnerabilità. Secondo il Sondaggio globale CFOUn numero impressionante di 85% di professionisti della sicurezza informatica attribuisce l'aumento degli attacchi all'utilizzo di armi generative AI. A Bengaluru, in India, un rapporto statale ha confermato questa tendenza: all'inizio del 2025, 80% di e-mail di phishing erano generate da AI.
L'AI sta trasformando la stessa Cyber Kill Chain e ha il potenziale di potenziare ogni fase delle campagne informatiche offensive.. La velocità e la scala con cui l'AI rimodella questa catena è diventata una preoccupazione pressante per la sicurezza nazionale.
Questo kit di strumenti si concentra specificamente sull'AI come fattore di abilitazione all'attacco, esplorando come trasforma le diverse fasi della Cyber Kill Chain.
Ricognizione
L'attaccante raccoglie informazioni sull'obiettivo, come i dati dei dipendenti, le e-mail o i dati di sistema, per pianificare l'attacco.
Come l'AI cambia la ricognizione:
Caso evidenziato: ChatGPT come assistente di ricognizione
Nel 2024, ricercatore di cybersicurezza Sheetal Tamara ha pubblicato un documento che dimostra come modelli linguistici di grandi dimensioni come ChatGPT possano accelerare notevolmente la fase di ricognizione di un attacco. Invece di passare ore a scrivere script e a raccogliere manualmente informazioni open-source, il ricercatore ha utilizzato una breve serie di prompt conversazionali, ad esempio: "Elenca tutti i sottodomini che riesci a trovare per examplecompany.com", "Riassumi la topologia di rete dell'azienda sulla base delle informazioni pubblicamente disponibili" e "Identifica quali sistemi operativi e servizi sono molto probabilmente in esecuzione su questi server".
In pochi minuti, il modello ha prodotto materiale utile per la ricognizione, tra cui:
- un elenco di domini e sottodomini associati all'azienda target
- probabili intervalli di indirizzi IP
- note sulle configurazioni SSL/TLS, sulle porte potenzialmente aperte e sui servizi più comuni
- informazioni pubbliche sui dipendenti (da LinkedIn e comunicati stampa) che potrebbero essere utilizzate per lo spear-phishing.
Laddove la raccolta di OSINT richiederebbe normalmente ore o giorni di lavoro manuale, l'esperimento ha ridotto il compito a un flusso di lavoro conversazionale che richiede molte meno competenze tecniche. Lo studio sottolinea quindi come i modelli generativi possano abbassare la barriera della ricognizione automatizzata, con chiare implicazioni per la pratica difensiva e la modellazione delle minacce.
-
Strumenti di scansione automatica "Weaponizing AI in Cyberattacks A Comparative Study of AI powered Tools for Offensive Security" (Annis & Hamoudeh 2025)
Lo studio comparativo mostra come gli strumenti automatizzati (ad esempio, WebCopilot, Sublist3r, RustScan+Nmap) accelerino la scansione della rete e l'enumerazione dei sottodomini. I risultati evidenziano come AI potrebbe automatizzare ulteriormente le attività offensive, come la simulazione di scenari di attacco e l'adattamento dinamico alle difese, aprendo la strada a operazioni di sicurezza offensive completamente automatizzate. -
AI strumenti per la ricognizione "La minaccia dell'offensiva AI per le organizzazioni" (Mirsky et al. 2023)
L'indagine mette in evidenza 32 strumenti offensivi AI che utilizzano deep learning, reinforcement learning e NLP per automatizzare il rilevamento degli entry-point, la creazione di persone e la selezione dei bersagli. Questi strumenti migliorano l'OSINT, consentono di realizzare deepfakes realistici per il phishing e permettono anche agli attaccanti inesperti di pianificare e lanciare campagne di maggiore impatto. -
Raccolta di informazioni e sfruttamento automatico. "AI armato per attacchi informatici" (Yamin et al. 2021)
La ricerca analizza i recenti attacchi informatici che hanno utilizzato tecniche basate su AI e identifica le relative strategie di mitigazione. Evidenzia vari strumenti AI (ad esempio, GyoiThon, Deep Exploit) che possono aiutare a raccogliere dati sul sistema, sui possibili obiettivi e sulle misure di difesa.
Armamento
L'attaccante utilizza le informazioni scoperte durante la ricognizione per costruire o personalizzare un carico utile dannoso (ad esempio, malware o exploit) e sfruttare le debolezze dell'obiettivo.
Come l'AI cambia l'armamento:
AI semplifica la creazione e la messa a punto di payload dannosi generando o modificando il codice e testando le varianti rispetto ai modelli di rilevamento. In questo modo è possibile produrre payload più discreti, adattivi e mirati, comprese le varianti polimorfiche che modificano il loro aspetto a ogni esecuzione. I test avversari possono essere utilizzati per perfezionare i payload prima della distribuzione.
Caso evidenziato: Il dropper malware generato da AI in natura
Nel 2024, analisti di cybersicurezza ha identificato una campagna di phishing che inizialmente sembrava di routine: una serie di e-mail che distribuivano un payload di malware convenzionale. Tuttavia, un'ispezione più attenta del dropper (ovvero il piccolo programma responsabile dell'installazione e dell'attivazione del malware primario) ha rivelato una caratteristica insolita.
La struttura e la sintassi del dropper indicano che è stato generato da un modello linguistico di grandi dimensioni piuttosto che da un programmatore umano. Sebbene funzionasse come un semplice wrapper, il dropper prodotto da AI era al contempo raffinato ed efficace, dimostrando la capacità di eludere i metodi di rilevamento tradizionali. Ha aggirato con successo le firme antivirus di base e ha consegnato il malware come previsto.
Questa scoperta è stata degna di nota in quanto uno dei primi casi confermati di diffusione di codice maligno generato da AI. Sebbene il malware sottostante non fosse nuovo, l'esternalizzazione di parte del processo di armamento a AI ha rappresentato uno sviluppo significativo. Ha dimostrato come gli aggressori possano scalare le operazioni, ridurre i costi di sviluppo e adattarsi più rapidamente, complicando al contempo gli sforzi di rilevamento e risposta.
-
Malware polimorfo potenziato con AI. "Malware polimorfo AI: Un POC del mondo reale e una procedura di rilevamento" (Itkin 2025)
L'articolo propone un proof-of-concept di malware polimorfo alimentato da AI che riscrive dinamicamente il proprio codice in fase di esecuzione per eludere il rilevamento, costruito come un keylogger che genera payload offuscati per ogni esecuzione. -
Modelli linguistici di grandi dimensioni per la generazione di codice - "Modelli linguistici di grandi dimensioni per la generazione di codice: A Comprehensive Survey of Challenges, Techniques, Evaluation, and Applications" (Huynh & Lin 2025)
L'indagine mostra come gli LLM (ad esempio, CodeLlama, Copilot) possano generare automaticamente codice eseguibile dal linguaggio naturale, abbassando la barriera per la creazione di malware, lo sviluppo di exploit e l'adattamento dei payload da parte degli aggressori. -
Tecniche di offuscamento inedite generate da AI. "ADVERSARIALuscator: An Adversarial-DRL Based Obfuscator and Metamorphic Malware SwarmGenerator" (Sewak et al. 2021)
L'articolo presenta ADVERSARIALuscator, un AI in grado di riscrivere automaticamente il codice del malware per creare molte versioni e avere un aspetto sempre diverso per evitare il rilevamento da parte dei sistemi di sicurezza. Nei test, circa un terzo di queste varianti è stato in grado di aggirare i sistemi di sicurezza avanzati. -
Malware "vibro-codificatore" guidato da AI. "Gli hacker utilizzano l'AI per analizzare i rapporti di intelligence sulle minacce e il malware 'vibe code'" (Kelly 2025)
In questo articolo, i ricercatori di sicurezza hanno riferito che gli hacker utilizzano la tecnica generativa AI per leggere e interpretare i rapporti di intelligence sulle minacce, per poi produrre automaticamente malware funzionante. Chiamata "vibe-coding", questa tecnica traduce le analisi leggibili dall'uomo in codice, consentendo agli avversari di armare rapidamente la ricerca pubblica sulla sicurezza informatica in exploit.
Consegna
L'aggressore sferra l'attacco trasmettendo il payload dannoso all'obiettivo, spesso tramite e-mail di phishing, siti web falsi o reti insicure.
Come l'AI cambia la consegna:
AI adatta e temporizza i meccanismi di consegna per massimizzare il successo. Automatizza la generazione di contenuti di phishing convincenti, deepfakes in tempo reale, interazioni di chat adattive e pagine web fraudolente realistiche, e utilizza i dati di ricognizione per scegliere il momento e il canale ottimali per la consegna. Questo riduce la necessità di competenze umane nell'esecuzione delle campagne.
Caso evidenziato: Truffa del Deepfake CEO ad Arup
Nel 2024, il personale del Lo studio di ingegneria britannico Arup ha ricevuto quella che sembrava essere una videochiamata legittima dal proprio amministratore delegato regionale. Il dirigente chiedeva urgentemente il trasferimento di fondi in relazione a una transazione riservata. L'individuo sullo schermo ha replicato l'aspetto, la voce e i modi di fare dell'amministratore delegato con notevole precisione.
In realtà, l'interlocutore non era il dirigente ma un deepfake generato tramite AI, progettato per imitarlo in tempo reale. Convinto dell'autenticità dell'interazione, il personale ha autorizzato una sequenza di trasferimenti per quasi 25 milioni di dollari.
Questo incidente è uno dei più grandi casi riportati di social engineering abilitato da AI durante la fase di consegna di un cyberattacco. Questo dimostra che il phishing non deve più dipendere da e-mail mal confezionate o da link dubbi. Al contrario, l'AI consente ora di utilizzare imitazioni audio e video altamente realistiche che eludono non solo i controlli tecnici, ma anche il giudizio e la fiducia dell'uomo.
-
LLM per l'ingegneria sociale e il phishing su scala. "Esplorazione degli LLM per il rilevamento di malware: Revisione, progettazione del quadro e approcci alle contromisure" (Al-Karaki & Khan 2024)
L'articolo descrive come gli LLM possano essere utilizzati per automatizzare i contenuti di phishing, generare malware polimorfo e creare input avversari. -
Ingegneria sociale alimentata da AI. "L'ombra della frode: Il pericolo emergente dell'ingegneria sociale alimentata da AI e la sua possibile cura" (Yu et al. 2024).
L'indagine mostra come i modelli di diffusione e gli LLM rendano il phishing e l'impersonificazione più personalizzati e convincenti. L'indagine classifica l'ingegneria sociale abilitata dall'AI in "fasi 3E" (Enlarging, Enriching, Emerging), evidenziando come gli aggressori possano scalare le campagne, introdurre nuovi vettori e sfruttare nuove minacce, rendendo più efficace l'invio di payload malevoli. -
Frode vocale / phishing generato da AI. "Ho truffato la mia banca" (Hoover 2025)
Un esperimento giornalistico che smaschera la voce deepfake generata da AI e utilizzata per truffare i conti bancari.
Sfruttamento
L'aggressore attiva il payload per sfruttare una vulnerabilità e ottenere un accesso non autorizzato al sistema di destinazione. Dopo essersi infiltrato nell'organizzazione, l'aggressore utilizza questo accesso per spostarsi lateralmente tra i sistemi per trovare informazioni rilevanti (ad esempio, dati sensibili, ulteriori vulnerabilità, server di posta elettronica, ecc.
Come AI cambia lo sfruttamento:
AI assiste gli aggressori nell'identificazione, nella comprensione e nello sfruttamento delle debolezze del sistema, automatizzando la scoperta delle vulnerabilità (ad esempio, fuzzing intelligente e scansione guidata), costruendo alberi di attacco e proponendo percorsi di sfruttamento. Può anche generare input avversari che aggirano gli strumenti di sicurezza o sfruttano le difese.
Caso evidenziato: Il verme Morris II AI
Nel 2024, ricercatori ha dimostrato una nuova forma di worm autopropagante che non si basa sullo sfruttamento di vulnerabilità software convenzionali. Al contrario, prendeva di mira gli stessi sistemi generativi AI.
Nominato Morris II In riferimento al noto Morris Worm del 1988, questo attacco proof-of-concept utilizzava prompt avversari per manipolare i modelli AI affinché riproducessero e distribuissero istruzioni dannose. Una volta "infettato" un sistema, il worm poteva generare autonomamente altri prompt che inducevano l'AI a replicare l'attacco e a trasmetterlo ad altri modelli.
A differenza dei worm tradizionali, che in genere sfruttano codice non patchato, Morris II sfruttando l'apertura e l'imprevedibilità del comportamento del AI generativo. La dimostrazione ha sottolineato che, man mano che le organizzazioni incorporano sempre più AI generativi nei flussi di lavoro operativi, possono esporre nuove superfici di attacco in cui la vulnerabilità non risiede nel codice sorgente ma nei dati di addestramento e nelle risposte del modello.
-
Avversario e offensivo AI - "Sfruttare l'AI per gli attacchi: On the Interplay between Adversarial AI and Offensive AI" (Shröer & Pajola 2025)
Lo studio illustra come gli aggressori possano sfruttare le vulnerabilità dei sistemi AI attraverso input avversari, o armare l'AI stesso per lanciare exploit più efficaci contro obiettivi tradizionali, evidenziando il duplice ruolo dell'AI come strumento e bersaglio dei cyberattacchi. -
Binari di malware avversari - "Binari di malware adversariali: Evading Deep Learning for Malware Detection in Executables" (Kolosnjarski et al. 2018)
Lo studio mostra attacchi basati sul gradiente che modificano meno di 1% di byte negli eseguibili preservandone la funzionalità, riuscendo a eludere i rilevatori di malware con apprendimento profondo addestrati sui byte grezzi.
Installazione
L'attaccante installa malware o backdoor per mantenere l'accesso e il controllo persistente (nascosto) all'interno del sistema di destinazione.
Come l'AI cambia l'installazione:
L'AI può produrre tecniche di persistenza adattive e suggerire i vettori di installazione più efficaci analizzando i dati delle fasi precedenti, ma la piena automazione della fase di installazione, ricca di sfumature e di decisioni, rimane limitata. Se applicato, AI consente al malware di modificare il comportamento per evitare il rilevamento e di selezionare i tempi e i punti di ingresso ottimali.
Caso evidenziato: Un ransomware che impara a nascondersi
Nel 2024, ricercatori ha introdotto un sistema noto come EGAN, un modello AI sviluppato per esplorare come il ransomware possa utilizzare strategie di apprendimento per eludere il rilevamento. A differenza del tradizionale malware statico, che viene identificato o ignorato, EGAN operata attraverso una sperimentazione iterativa.
Il sistema ha modificato ripetutamente il codice del ransomware, testando varianti successive fino a produrne una in grado di aggirare le difese antivirus pur mantenendo la piena funzionalità. In effetti, il malware ha "imparato" a eludere i meccanismi di rilevamento basati sulle anomalie, normalmente efficaci nell'identificare comportamenti sospetti.
Anche se creato in un ambiente di ricerca, EGAN ha dimostrato come i meccanismi di persistenza guidati da AI possano rendere il ransomware significativamente più difficile da rilevare ed eliminare una volta distribuito. Piuttosto che dipendere da tecniche di evasione predefinite, il malware si è adattato dinamicamente, creando la prospettiva di un software maligno quasi "non uccidibile".
-
Evasione del malware basata su RL "Imparare a eludere i modelli di malware statici PE Machine Learning tramite l'apprendimento per rinforzo" (Anderson et al. 2018).
Lo studio mostra come gli agenti di apprendimento per rinforzo possano modificare iterativamente il malware Windows PE con modifiche che preservano la funzionalità per eludere i rilevatori statici di malware ad apprendimento automatico, consentendo l'installazione adattiva e completamente black-box di malware persistente.
Comando e controllo
Dopo aver ottenuto il controllo di più sistemi, l'aggressore crea un centro di controllo per sfruttarli da remoto. L'aggressore stabilisce una comunicazione remota con il sistema compromesso, attraverso diversi canali (ad esempio, Web, DNS o e-mail) per controllare le operazioni ed eludere il rilevamento. L'aggressore utilizza diverse tecniche, come l'offuscamento per coprire le proprie tracce ed evitare il rilevamento, o attacchi denial-of-service (DoS) per distrarre i professionisti della sicurezza dai loro veri obiettivi.
Come l'AI cambia il comando e il controllo (C2):
L'AI consente comunicazioni C2 più occulte generando traffico che simula attività legittime, progettando algoritmi di generazione di domini evasivi e orchestrando botnet decentralizzate e adattive. Può anche mettere a punto il comportamento C2 per eludere i rilevatori di anomalie.
Caso evidenziato: Botnet coordinate da AI, sciami con una mente propria
Nel 2023, ricercatori ha dimostrato una nuova forma di botnet alimentata da AI. Le reti bot convenzionali si basano in genere su un server centrale di comando e controllo (C2) attraverso il quale un singolo hub impartisce istruzioni che le macchine compromesse, o "bot", eseguono. Questa architettura, tuttavia, può essere spesso interrotta una volta che i difensori identificano e disattivano il server centrale.
La botnet abilitata da AI ha adottato un modello diverso. Ogni nodo della rete ha impiegato l'apprendimento per rinforzo per determinare autonomamente quando iniziare gli attacchi, quali obiettivi perseguire e come adattare le tattiche in risposta alle misure difensive. Invece di attendere istruzioni centralizzate, i bot collaboravano in modo decentralizzato, funzionando come una forma di alveare auto-organizzato.
Questo design ha reso la rete bot più resiliente e più difficile da rilevare. Anche se alcuni nodi venivano neutralizzati, gli altri potevano adattarsi e continuare a operare. Per i difensori, il compito non era più limitato all'interruzione di un singolo server, ma era necessario contrastare uno sciame distribuito e adattivo di macchine compromesse.
-
Manomissione dei registri e occultamento delle tracce basati su AI. "5 tecniche anti-forensi per ingannare gli investigatori (+ esempi e suggerimenti per il rilevamento)" (CyberJunkie 2023)
I rapporti del 2024-2025 hanno descritto come l'AI potrebbe essere usato per cancellare o alterare i registri digitali per nascondere gli attacchi agli investigatori, anche se gli esempi reali sono ancora rari. -
Bypassare i sistemi di rilevamento delle intrusioni di rete basati su GAN. "NAttack! Attacchi avversari per aggirare un classificatore basato su GAN addestrato a rilevare intrusioni di rete" (Piplai et al. 2020)
Lo studio mostra come gli attacchi avversari possano eludere con successo i sistemi di rilevamento delle intrusioni addestrati da GAN, consentendo agli aggressori di mascherare il traffico C2 come normale attività di rete.
Azione sugli obiettivi
L'attaccante realizza il suo obiettivo finale, come l'esfiltrazione dei dati, la crittografia o la distruzione dei dati.
Come l'AI cambia l'azione sugli obiettivi:
L'AI accelera e perfeziona i compiti finali di un attacco: esfiltrazione automatizzata dei dati, definizione delle priorità degli asset di alto valore, messaggistica estorsiva su misura e generazione di contenuti su larga scala per la disinformazione o l'interruzione. Le decisioni strategiche finali spesso richiedono ancora il giudizio umano, ma AI accorcia il percorso verso tali decisioni.
Caso evidenziato: PromptLocker, un'orchestrazione di ransomware guidata da AI
Nel 2024, ricercatori della New York University hanno introdotto PromptLocker, un sistema ransomware proof-of-concept controllato da un modello linguistico di grandi dimensioni. A differenza dei ransomware tradizionali, che seguono comportamenti predefiniti, PromptLocker ha preso decisioni in tempo reale e ha automatizzato diverse fasi del ciclo di vita dell'attacco. Durante la dimostrazione il modello ha agito autonomamente:
- ha selezionato gli obiettivi più preziosi all'interno di un sistema compromesso,
- esfiltrare i dati sensibili prima della crittografia, aumentando l'influenza sulle vittime,
- volumi e file crittografati per negare l'accesso.
- ha generato note di riscatto su misura, adattando il tono e le richieste al profilo della vittima (ad esempio, alla capacità finanziaria e al settore).
Anche se il lavoro è stato svolto in un ambiente di ricerca controllato, PromptLocker ha illustrato come la AI generativa possa automatizzare e scalare compiti che in precedenza richiedevano una pianificazione umana, accelerando così la capacità degli aggressori di raggiungere i propri obiettivi e di adattarsi a circostanze mutevoli.
-
La disinformazione generata dall'AI su scala - "Una campagna di disinformazione pro-Russia sta usando gli strumenti AI gratuiti per alimentare una 'esplosione di contenuti'" (Gilbert 2025)
L'articolo spiega come la campagna Operation Overload (2023-2025), legata alla Russia, utilizzi strumenti AI per produrre in massa immagini, video e clip clonati di personaggi pubblici. Questo materiale si diffonde ampiamente attraverso reti di bot sui social media per spingere narrazioni divisive. -
AI ha creato profili sociali falsi per l'amplificazione. "Caratteristiche e prevalenza di profili falsi sui social media con volti generati da AI" (Yang et al. 2024)
L'indagine ha rilevato oltre 1400 account Twitter che utilizzano immagini di profilo generate da AI, organizzati in reti per promuovere truffe e messaggi a sfondo politico, con migliaia di account attivi quotidianamente. -
documenti e notizie false create da AI (psyops). "Le bugie che la Russia racconta a se stessa I propagandisti del Paese prendono di mira l'Occidente, ma ingannano anche il Cremlino" (Rid 2024)
L'articolo spiega come una campagna di Doppelgänger in corso abbia creato versioni contraffatte convincenti di siti web di notizie legittime e pubblicato articoli generati da AI per promuovere narrazioni pro-russi in tutto l'Occidente.
Domande di discussione
- Quale fase della Cyber Kill Chain sarà probabilmente più trasformata dall'AI in futuro, e perché? E attualmente, in quale fase l'AI offre i risultati più promettenti per gli aggressori? In quale fase l'implementazione dell'AI sembra meno efficace e promettente?
- L'AI fa pendere il vantaggio nel cyberspazio più verso gli attaccanti o i difensori?
- L'accesso diffuso all'AI livellerà il campo di gioco per i dilettanti, o potenzierà soprattutto gli avversari dotati di buone risorse?
- In che modo la capacità di AI di automatizzare e accelerare la cyber kill chain cambia la natura dei cyberattacchi?
- L'AI potrebbe rendere gli attacchi così veloci e adattivi da rendere obsolete le strutture di difesa tradizionali?
- Chi è responsabile quando i modelli AI vengono utilizzati in modo improprio per i cyberattacchi: gli sviluppatori, gli implementatori o gli attaccanti?
- Come possono i politici regolamentare le AI offensive senza soffocare l'innovazione nelle applicazioni difensive o civili?
- L'AI spingerà i conflitti informatici verso una guerra più autonoma, "macchina contro macchina"?
- L'AI potrebbe cambiare radicalmente il modello della cyber kill chain in qualcosa di non lineare e continuamente adattivo?