AI in Reati informatici

Come l'AI cambia la catena di morte informatica

Le operazioni informatiche offensive sono azioni deliberate condotte nel cyberspazio per infiltrarsi, interrompere o distruggere i sistemi avversari nel perseguimento di obiettivi strategici. Sono comunemente inquadrate come Catena di morte informatica, un framework originariamente sviluppato da Lockheed Martin. Il framework suddivide un attacco in una sequenza strutturata di fasi, tracciando la progressione dell'avversario dalla ricognizione iniziale alle azioni finali intraprese per raggiungere gli obiettivi (ad esempio, l'esfiltrazione o la distruzione dei dati).

2

2

Armamento

Accoppiamento dell'exploit con la backdoor in un payload consegnabile

Consegna

Consegna di bundle armati alla vittima via e-mail, web, USB, ecc.

3

3

4

4

Sfruttamento

Sfruttamento di una vulnerabilità per eseguire codice sul sistema della vittima

Installazione

Installazione di malware sulla risorsa

5

5

6

6

Comando e controllo (C2)

Canale di comando per la manipolazione a distanza della vittima

Azioni sugli obiettivi

Con l'accesso "mani sulla tastiera", gli intrusi raggiungono i loro obiettivi originari

7

7

Negli ultimi anni, le operazioni informatiche offensive si sono intensificate sia in termini di volume che di complessità. I cyberattacchi globali non solo sono in forte aumento, ma si stanno anche diversificando per tipologia: nel 2022, 27% dei cyberattacchi globali sono stati basati su estorsioni, 21% hanno coinvolto backdoor e 17% ransomware.. L'intelligenza artificiale (AI) sta svolgendo un ruolo importante in questa escalation e diversificazione, consentendo nuove forme di attacco come deepfakes o swarm malware, rafforzando al contempo vettori tradizionali come il phishing o lo sfruttamento delle vulnerabilità. Secondo il Sondaggio globale CFOUn numero impressionante di 85% di professionisti della sicurezza informatica attribuisce l'aumento degli attacchi all'utilizzo di armi generative AI. A Bengaluru, in India, un rapporto statale ha confermato questa tendenza: all'inizio del 2025, 80% di e-mail di phishing erano generate da AI.

L'AI sta trasformando la stessa Cyber Kill Chain e ha il potenziale di potenziare ogni fase delle campagne informatiche offensive.. La velocità e la scala con cui l'AI rimodella questa catena è diventata una preoccupazione pressante per la sicurezza nazionale.

Questo kit di strumenti si concentra specificamente sull'AI come fattore di abilitazione all'attacco, esplorando come trasforma le diverse fasi della Cyber Kill Chain.

Ricognizione

L'attaccante raccoglie informazioni sull'obiettivo, come i dati dei dipendenti, le e-mail o i dati di sistema, per pianificare l'attacco.

Come l'AI cambia la ricognizione:

AI automatizza e velocizza la raccolta di informazioni open-source elaborando grandi volumi di dati pubblici (social media, siti aziendali, documenti trapelati) ed estraendo artefatti strutturati come sottodomini, probabili intervalli IP e profili di dipendenti. Inoltre, abbassa la barriera delle competenze per l'ingegneria sociale mirata, producendo profili concisi di vittime adatti allo spear-phishing.
Entità dell'impatto: elevata. L'OSINT automatizzata riduce notevolmente il tempo e le competenze necessarie.

Caso evidenziato: ChatGPT come assistente di ricognizione

Nel 2024, ricercatore di cybersicurezza Sheetal Tamara ha pubblicato un documento che dimostra come modelli linguistici di grandi dimensioni come ChatGPT possano accelerare notevolmente la fase di ricognizione di un attacco. Invece di passare ore a scrivere script e a raccogliere manualmente informazioni open-source, il ricercatore ha utilizzato una breve serie di prompt conversazionali, ad esempio: "Elenca tutti i sottodomini che riesci a trovare per examplecompany.com", "Riassumi la topologia di rete dell'azienda sulla base delle informazioni pubblicamente disponibili" e "Identifica quali sistemi operativi e servizi sono molto probabilmente in esecuzione su questi server".

In pochi minuti, il modello ha prodotto materiale utile per la ricognizione, tra cui:

  • un elenco di domini e sottodomini associati all'azienda target
  • probabili intervalli di indirizzi IP
  • note sulle configurazioni SSL/TLS, sulle porte potenzialmente aperte e sui servizi più comuni
  • informazioni pubbliche sui dipendenti (da LinkedIn e comunicati stampa) che potrebbero essere utilizzate per lo spear-phishing.

Laddove la raccolta di OSINT richiederebbe normalmente ore o giorni di lavoro manuale, l'esperimento ha ridotto il compito a un flusso di lavoro conversazionale che richiede molte meno competenze tecniche. Lo studio sottolinea quindi come i modelli generativi possano abbassare la barriera della ricognizione automatizzata, con chiare implicazioni per la pratica difensiva e la modellazione delle minacce.

Ulteriori letture

Armamento

L'attaccante utilizza le informazioni scoperte durante la ricognizione per costruire o personalizzare un carico utile dannoso (ad esempio, malware o exploit) e sfruttare le debolezze dell'obiettivo.

Come l'AI cambia l'armamento:

AI semplifica la creazione e la messa a punto di payload dannosi generando o modificando il codice e testando le varianti rispetto ai modelli di rilevamento. In questo modo è possibile produrre payload più discreti, adattivi e mirati, comprese le varianti polimorfiche che modificano il loro aspetto a ogni esecuzione. I test avversari possono essere utilizzati per perfezionare i payload prima della distribuzione.

Entità dell'impatto: elevata. L'automazione accelera e scala lo sviluppo del carico utile.

Caso evidenziato: Il dropper malware generato da AI in natura

Nel 2024, analisti di cybersicurezza ha identificato una campagna di phishing che inizialmente sembrava di routine: una serie di e-mail che distribuivano un payload di malware convenzionale. Tuttavia, un'ispezione più attenta del dropper (ovvero il piccolo programma responsabile dell'installazione e dell'attivazione del malware primario) ha rivelato una caratteristica insolita.

La struttura e la sintassi del dropper indicano che è stato generato da un modello linguistico di grandi dimensioni piuttosto che da un programmatore umano. Sebbene funzionasse come un semplice wrapper, il dropper prodotto da AI era al contempo raffinato ed efficace, dimostrando la capacità di eludere i metodi di rilevamento tradizionali. Ha aggirato con successo le firme antivirus di base e ha consegnato il malware come previsto.

Questa scoperta è stata degna di nota in quanto uno dei primi casi confermati di diffusione di codice maligno generato da AI. Sebbene il malware sottostante non fosse nuovo, l'esternalizzazione di parte del processo di armamento a AI ha rappresentato uno sviluppo significativo. Ha dimostrato come gli aggressori possano scalare le operazioni, ridurre i costi di sviluppo e adattarsi più rapidamente, complicando al contempo gli sforzi di rilevamento e risposta.

Ulteriori letture

Consegna

L'aggressore sferra l'attacco trasmettendo il payload dannoso all'obiettivo, spesso tramite e-mail di phishing, siti web falsi o reti insicure.

Come l'AI cambia la consegna:

AI adatta e temporizza i meccanismi di consegna per massimizzare il successo. Automatizza la generazione di contenuti di phishing convincenti, deepfakes in tempo reale, interazioni di chat adattive e pagine web fraudolente realistiche, e utilizza i dati di ricognizione per scegliere il momento e il canale ottimali per la consegna. Questo riduce la necessità di competenze umane nell'esecuzione delle campagne.

Entità dell'impatto: elevata. L'AI aumenta notevolmente la persuasività e l'automazione della consegna.

Caso evidenziato: Truffa del Deepfake CEO ad Arup

Nel 2024, il personale del Lo studio di ingegneria britannico Arup ha ricevuto quella che sembrava essere una videochiamata legittima dal proprio amministratore delegato regionale. Il dirigente chiedeva urgentemente il trasferimento di fondi in relazione a una transazione riservata. L'individuo sullo schermo ha replicato l'aspetto, la voce e i modi di fare dell'amministratore delegato con notevole precisione.

In realtà, l'interlocutore non era il dirigente ma un deepfake generato tramite AI, progettato per imitarlo in tempo reale. Convinto dell'autenticità dell'interazione, il personale ha autorizzato una sequenza di trasferimenti per quasi 25 milioni di dollari.

Questo incidente è uno dei più grandi casi riportati di social engineering abilitato da AI durante la fase di consegna di un cyberattacco. Questo dimostra che il phishing non deve più dipendere da e-mail mal confezionate o da link dubbi. Al contrario, l'AI consente ora di utilizzare imitazioni audio e video altamente realistiche che eludono non solo i controlli tecnici, ma anche il giudizio e la fiducia dell'uomo.

Ulteriori letture

Sfruttamento

L'aggressore attiva il payload per sfruttare una vulnerabilità e ottenere un accesso non autorizzato al sistema di destinazione. Dopo essersi infiltrato nell'organizzazione, l'aggressore utilizza questo accesso per spostarsi lateralmente tra i sistemi per trovare informazioni rilevanti (ad esempio, dati sensibili, ulteriori vulnerabilità, server di posta elettronica, ecc.

Come AI cambia lo sfruttamento:

AI assiste gli aggressori nell'identificazione, nella comprensione e nello sfruttamento delle debolezze del sistema, automatizzando la scoperta delle vulnerabilità (ad esempio, fuzzing intelligente e scansione guidata), costruendo alberi di attacco e proponendo percorsi di sfruttamento. Può anche generare input avversari che aggirano gli strumenti di sicurezza o sfruttano le difese.

Entità dell'impatto: Medio. AI migliora la velocità e l'efficacia della scoperta, soprattutto nei confronti di sistemi complessi.

Caso evidenziato: Il verme Morris II AI

Nel 2024, ricercatori ha dimostrato una nuova forma di worm autopropagante che non si basa sullo sfruttamento di vulnerabilità software convenzionali. Al contrario, prendeva di mira gli stessi sistemi generativi AI.

Nominato Morris II In riferimento al noto Morris Worm del 1988, questo attacco proof-of-concept utilizzava prompt avversari per manipolare i modelli AI affinché riproducessero e distribuissero istruzioni dannose. Una volta "infettato" un sistema, il worm poteva generare autonomamente altri prompt che inducevano l'AI a replicare l'attacco e a trasmetterlo ad altri modelli.

A differenza dei worm tradizionali, che in genere sfruttano codice non patchato, Morris II sfruttando l'apertura e l'imprevedibilità del comportamento del AI generativo. La dimostrazione ha sottolineato che, man mano che le organizzazioni incorporano sempre più AI generativi nei flussi di lavoro operativi, possono esporre nuove superfici di attacco in cui la vulnerabilità non risiede nel codice sorgente ma nei dati di addestramento e nelle risposte del modello.

Ulteriori letture

Installazione

L'attaccante installa malware o backdoor per mantenere l'accesso e il controllo persistente (nascosto) all'interno del sistema di destinazione.

Come l'AI cambia l'installazione:

L'AI può produrre tecniche di persistenza adattive e suggerire i vettori di installazione più efficaci analizzando i dati delle fasi precedenti, ma la piena automazione della fase di installazione, ricca di sfumature e di decisioni, rimane limitata. Se applicato, AI consente al malware di modificare il comportamento per evitare il rilevamento e di selezionare i tempi e i punti di ingresso ottimali.

Entità dell'impatto: Medio. L'AI migliora la persistenza e la furtività, ma l'automazione completa rimane limitata perché l'installazione richiede decisioni contestuali.

Caso evidenziato: Un ransomware che impara a nascondersi

Nel 2024, ricercatori ha introdotto un sistema noto come EGAN, un modello AI sviluppato per esplorare come il ransomware possa utilizzare strategie di apprendimento per eludere il rilevamento. A differenza del tradizionale malware statico, che viene identificato o ignorato, EGAN operata attraverso una sperimentazione iterativa.

Il sistema ha modificato ripetutamente il codice del ransomware, testando varianti successive fino a produrne una in grado di aggirare le difese antivirus pur mantenendo la piena funzionalità. In effetti, il malware ha "imparato" a eludere i meccanismi di rilevamento basati sulle anomalie, normalmente efficaci nell'identificare comportamenti sospetti.

Anche se creato in un ambiente di ricerca, EGAN ha dimostrato come i meccanismi di persistenza guidati da AI possano rendere il ransomware significativamente più difficile da rilevare ed eliminare una volta distribuito. Piuttosto che dipendere da tecniche di evasione predefinite, il malware si è adattato dinamicamente, creando la prospettiva di un software maligno quasi "non uccidibile".

Ulteriori letture

Comando e controllo

Dopo aver ottenuto il controllo di più sistemi, l'aggressore crea un centro di controllo per sfruttarli da remoto. L'aggressore stabilisce una comunicazione remota con il sistema compromesso, attraverso diversi canali (ad esempio, Web, DNS o e-mail) per controllare le operazioni ed eludere il rilevamento. L'aggressore utilizza diverse tecniche, come l'offuscamento per coprire le proprie tracce ed evitare il rilevamento, o attacchi denial-of-service (DoS) per distrarre i professionisti della sicurezza dai loro veri obiettivi.

Come l'AI cambia il comando e il controllo (C2):

L'AI consente comunicazioni C2 più occulte generando traffico che simula attività legittime, progettando algoritmi di generazione di domini evasivi e orchestrando botnet decentralizzate e adattive. Può anche mettere a punto il comportamento C2 per eludere i rilevatori di anomalie.

Entità dell'impatto: Medio. L'AI aumenta la sofisticazione e la resilienza del C2, ma i vincoli operativi ne limitano l'adozione diffusa.

Caso evidenziato: Botnet coordinate da AI, sciami con una mente propria

Nel 2023, ricercatori ha dimostrato una nuova forma di botnet alimentata da AI. Le reti bot convenzionali si basano in genere su un server centrale di comando e controllo (C2) attraverso il quale un singolo hub impartisce istruzioni che le macchine compromesse, o "bot", eseguono. Questa architettura, tuttavia, può essere spesso interrotta una volta che i difensori identificano e disattivano il server centrale.

La botnet abilitata da AI ha adottato un modello diverso. Ogni nodo della rete ha impiegato l'apprendimento per rinforzo per determinare autonomamente quando iniziare gli attacchi, quali obiettivi perseguire e come adattare le tattiche in risposta alle misure difensive. Invece di attendere istruzioni centralizzate, i bot collaboravano in modo decentralizzato, funzionando come una forma di alveare auto-organizzato.

Questo design ha reso la rete bot più resiliente e più difficile da rilevare. Anche se alcuni nodi venivano neutralizzati, gli altri potevano adattarsi e continuare a operare. Per i difensori, il compito non era più limitato all'interruzione di un singolo server, ma era necessario contrastare uno sciame distribuito e adattivo di macchine compromesse.

Ulteriori letture

Azione sugli obiettivi

L'attaccante realizza il suo obiettivo finale, come l'esfiltrazione dei dati, la crittografia o la distruzione dei dati.

Come l'AI cambia l'azione sugli obiettivi:

L'AI accelera e perfeziona i compiti finali di un attacco: esfiltrazione automatizzata dei dati, definizione delle priorità degli asset di alto valore, messaggistica estorsiva su misura e generazione di contenuti su larga scala per la disinformazione o l'interruzione. Le decisioni strategiche finali spesso richiedono ancora il giudizio umano, ma AI accorcia il percorso verso tali decisioni.

Entità dell'impatto: Medio. L'AI accelera e scala le attività orientate agli obiettivi, ma non sostituisce completamente l'intento umano.

Caso evidenziato: PromptLocker, un'orchestrazione di ransomware guidata da AI

Nel 2024, ricercatori della New York University hanno introdotto PromptLocker, un sistema ransomware proof-of-concept controllato da un modello linguistico di grandi dimensioni. A differenza dei ransomware tradizionali, che seguono comportamenti predefiniti, PromptLocker ha preso decisioni in tempo reale e ha automatizzato diverse fasi del ciclo di vita dell'attacco. Durante la dimostrazione il modello ha agito autonomamente:

  • ha selezionato gli obiettivi più preziosi all'interno di un sistema compromesso,
  • esfiltrare i dati sensibili prima della crittografia, aumentando l'influenza sulle vittime,
  • volumi e file crittografati per negare l'accesso.
  • ha generato note di riscatto su misura, adattando il tono e le richieste al profilo della vittima (ad esempio, alla capacità finanziaria e al settore).

Anche se il lavoro è stato svolto in un ambiente di ricerca controllato, PromptLocker ha illustrato come la AI generativa possa automatizzare e scalare compiti che in precedenza richiedevano una pianificazione umana, accelerando così la capacità degli aggressori di raggiungere i propri obiettivi e di adattarsi a circostanze mutevoli.

Ulteriori letture

Domande di discussione

Bibliografia

'Una campagna di disinformazione pro-Russia sta usando strumenti AI gratuiti per alimentare una "esplosione di contenuti" | WIRED'. Accesso al 19 settembre 2025. https://www.wired.com/story/pro-russia-disinformation-campaign-free-ai-tools/. 

Il Ransomware PromptLocker alimentato da AI è solo un progetto di ricerca dell'Università di New York: il codice ha funzionato come un tipico Ransomware, selezionando gli obiettivi, esfiltrare i dati selezionati e crittografare i volumi. Accesso al 19 settembre 2025. https://www.tomshardware.com/tech-industry/cyber-security/ai-powered-promptlocker-ransomware-is-just-an-nyu-research-project-the-code-worked-as-a-typical-ransomware-selecting-targets-exfiltrating-selected-data-and-encrypting-volumes. 

Al-Karaki, Jamal, Muhammad Al-Zafar Khan e Marwan Omar. 'Esplorazione degli LLM per il rilevamento di malware: Review, Framework Design, and Countermeasure Approaches'. arXiv:2409.07587. Versione 1. Preprint, arXiv, 11 settembre 2024. https://doi.org/10.48550/arXiv.2409.07587. 

Anderson, Hyrum S., Anant Kharkar, Bobby Filar, David Evans e Phil Roth. 'Learning to Evade Static PE Machine Learning Malware Models via Reinforcement Learning'. arXiv:1801.08917. Preprint, arXiv, 30 gennaio 2018. https://doi.org/10.48550/arXiv.1801.08917. 

Anis, Fatima e Mohammad Hammoudeh. Weaponizing AI in Cyberattacks A Comparative Study of AI Powered Tools for Offensive Security". Atti dell'8a Conferenza internazionale sulle reti e i sistemi distribuiti del futuro, ACM, 11 dicembre 2024, 283-90. https://doi.org/10.1145/3726122.3726164. 

Buchanan, Ben. Un'agenda di ricerca sulla sicurezza nazionale per la sicurezza informatica e l'intelligenza artificiale". Centro per la sicurezza e le tecnologie emergenti, 2020. https://cset.georgetown.edu/publication/a-national-security-research-agenda-for-cybersecurity-and-artificial-intelligence/. 

Cohen, Stav, Ron Bitton e Ben Nassi. Arriva il worm AI: Unleashing Zero-Click Worms That Target GenAI-Powered Applications'. arXiv:2403.02817. Versione 1. Preprint, arXiv, 5 marzo 2024. https://doi.org/10.48550/arXiv.2403.02817. 

Commey, Daniel, Benjamin Appiah, Bill K. Frimpong, Isaac Osei, Ebenezer N. A. Hammond e Garth V. Crosby. EGAN: Evolutional GAN for Ransomware Evasion". 2023 IEEE 48a Conferenza sulle reti locali di computer (LCN), 2 ottobre 2023, 1-9. https://doi.org/10.1109/LCN58197.2023.10223320. 

Cyber Kill Chain® | Lockheed Martin'. Accesso al 19 settembre 2025. https://www.lockheedmartin.com/en-us/capabilities/cyber/cyber-kill-chain.html. 

Minacce informatiche nell'UE: Fatti e cifre - Consilium". Accesso al 22 settembre 2025. https://www.consilium.europa.eu/en/policies/top-cyber-threats/. 

I truffatori di Deepfake si spacciano per amministratori delegati di FTSE". Accesso al 19 settembre 2025. https://www.thetimes.com/business-money/technology/article/deepfake-fraudsters-impersonate-ftse-chief-executives-z9vvnz93l. 

Hack The Box. '5 tecniche anti-forensi per ingannare gli investigatori (+ esempi e suggerimenti per il rilevamento)'. Accesso al 19 settembre 2025. https://www.hackthebox.com/blog/anti-forensics-techniques. 

Gli hacker usano l'AI per analizzare i rapporti sull'intelligence delle minacce e il malware "Vibe Code" - IT Pro". Accesso al 19 settembre 2025. https://www.itpro.com/security/hackers-are-using-ai-to-dissect-threat-intelligence-reports-and-vibe-code-malware. 

Hoover, Amanda. 'La nuova truffa intelligente che la vostra banca non riesce a fermare'. Business Insider. Consultato il 19 settembre 2025. https://www.businessinsider.com/bank-account-scam-deepfakes-ai-voice-generator-crime-fraud-2025-5. 

Huynh, Nam e Beiyu Lin. Modelli linguistici di grandi dimensioni per la generazione di codice: A Comprehensive Survey of Challenges, Techniques, Evaluation, and Applications'. arXiv:2503.01245. Preprint, arXiv, 2 aprile 2025. https://doi.org/10.48550/arXiv.2503.01245. 

Indice di intelligence sulle minacce di IBM Security X-Force 2023. n.d. 

Kolosnjaji, Bojan, Ambra Demontis, Battista Biggio, et al. 'Adversarial Malware Binaries: Evading Deep Learning for Malware Detection in Executables'. arXiv:1803.04173. Preprint, arXiv, 12 marzo 2018. https://doi.org/10.48550/arXiv.1803.04173. 

Li, Haoyuan, Hao Jiang, Tao Jin, et al. 'DATE: Domain Adaptive Product Seeker for E-Commerce'. arXiv:2304.03669. Preprint, arXiv, 7 aprile 2023. https://doi.org/10.48550/arXiv.2304.03669. 

Mirsky, Yisroel, Ambra Demontis, Jaidip Kotak, et al. "La minaccia dell'offensiva AI alle organizzazioni". Computer e sicurezza 124 (gennaio 2023): 103006. https://doi.org/10.1016/j.cose.2022.103006. 

Piplai, Aritran, Sai Sree Laya Chukkapalli e Anupam Joshi. NAttack! Adversarial Attacks to Bypass a GAN Based Classifier Trained to Detect Network Intrusion". 2020 IEEE 6th Intl Conference on Big Data Security on Cloud (BigDataSecurity), IEEE Intl Conference on High Performance and Smart Computing, (HPSC) e IEEE Intl Conference on Intelligent Data and Security (IDS), maggio 2020, 49-54. https://doi.org/10.1109/BigDataSecurity-HPSC-IDS49724.2020.00020. 

Malware polimorfo AI: A Real-World POC and Detection Walkthrough - CardinalOps". Accesso al 19 settembre 2025. https://cardinalops.com/blog/polymorphic-ai-malware-detection/. 

Rid, Thomas. Le bugie che la Russia si racconta". Affari esteri, 30 settembre 2024. https://www.foreignaffairs.com/united-states/lies-russia-tells-itself. 

'938 crore di rupie perse dai cybercriminali da gennaio | Bengaluru News - Times of India'. Accesso al 22 settembre 2025. https://timesofindia.indiatimes.com/city/bengaluru/rs-938-crore-lost-to-cybercrooks-since-jan/articleshow/122075324.cms. 

Schröer, Saskia Laura, Luca Pajola, Alberto Castagnaro, Giovanni Apruzzese e Mauro Conti. Sfruttare l'AI per gli attacchi: On the Interplay between Adversarial AI and Offensive AI'. arXiv:2506.12519. Versione 1. Preprint, arXiv, 14 giugno 2025. https://doi.org/10.48550/arXiv.2506.12519. 

Sewak, Mohit, Sanjay K. Sahay e Hemant Rathore. ADVERSARIALuscator: An Adversarial-DRL Based Obfuscator and Metamorphic Malware SwarmGenerator'. 2021 Conferenza internazionale congiunta sulle reti neurali (IJCNN), 18 luglio 2021, 1-9. https://doi.org/10.1109/IJCNN52387.2021.9534016. 

Temara, Sheetal. 'Massimizzare il successo dei test di penetrazione con tecniche di ricognizione efficaci utilizzando ChatGPT'. arXiv:2307.06391. Preprint, arXiv, 20 marzo 2023. https://doi.org/10.48550/arXiv.2307.06391. 

Townsend, Kevin. 'Malware generato da AI trovato in natura'. SecurityWeek, 24 settembre 2024. https://www.securityweek.com/ai-generated-malware-found-in-the-wild/. 

Yamin, Muhammad Mudassar, Mohib Ullah, Habib Ullah e Basel Katt. AI armato per gli attacchi informatici". Giornale della sicurezza e delle applicazioni dell'informazione 57 (marzo 2021): 102722. https://doi.org/10.1016/j.jisa.2020.102722. 

Yang, Kai-Cheng, Danishjeet Singh e Filippo Menczer. Caratteristiche e prevalenza di profili falsi sui social media con volti generati da AI". Giornale della fiducia e della sicurezza online 2, no. 4 (2024). https://doi.org/10.54501/jots.v2i4.197. 

Yu, Jingru, Yi Yu, Xuhong Wang, et al. 'The Shadow of Fraud: The Emerging Danger of AI-Powered Social Engineering and Its Possible Cure". arXiv:2407.15912. Preprint, arXiv, 22 luglio 2024. https://doi.org/10.48550/arXiv.2407.15912. 

Grazie per esserti iscritto alla nostra newsletter!

Grazie! Ricevuto l'RSVP per l'AI in cyber-offesa

AI nel reato informatico

Caricamento...

Caricamento...