L'IA dans la cybercriminalité

Comment AI modifie la chaîne de la mort cybernétique

Les cyberopérations offensives sont des actions délibérées menées dans le cyberespace pour infiltrer, perturber ou détruire les systèmes de l'adversaire en vue d'atteindre des objectifs stratégiques. Elles sont généralement présentées sous la forme La chaîne de la mort cybernétiqueun cadre développé à l'origine par Lockheed Martin. Ce cadre décompose une attaque en une séquence structurée de phases, retraçant la progression d'un adversaire depuis la reconnaissance initiale jusqu'aux actions finales entreprises pour atteindre les objectifs (par exemple, l'exfiltration ou la destruction de données).

2

2

Armement

Couplage d'un exploit et d'une porte dérobée dans une charge utile livrable

Livraison

Livraison d'un paquet d'armes à la victime par courrier électronique, Internet, USB, etc.

3

3

4

4

Exploitation

Exploitation d'une vulnérabilité pour exécuter du code sur le système de la victime

Installation

Installation de logiciels malveillants sur le bien

5

5

6

6

Commandement et contrôle (C2)

Canal de commande pour la manipulation à distance de la victime

Actions sur les objectifs

Avec l'accès "mains sur le clavier", les intrus atteignent leurs objectifs initiaux.

7

7

Ces dernières années, les cyber-opérations offensives se sont intensifiées en volume et en complexité. Les cyberattaques mondiales ne sont pas seulement en forte augmentation, elles se diversifient également en termes de type.En outre, l'Union européenne a décidé de mettre en place un programme d'aide à l'emploi et à la formation, qui devrait être opérationnel en 2022, 27% des cyberattaques mondiales étaient basées sur l'extorsion, 21% impliquaient des portes dérobées et 17% des ransomwares.. L'intelligence artificielle (AI) joue un rôle majeur dans cette escalade et cette diversification, permettant de nouvelles formes d'attaques telles que les deepfakes ou les swarm malware, tout en renforçant les vecteurs traditionnels tels que le phishing ou l'exploitation de vulnérabilités. Selon le Enquête mondiale sur les directeurs financiersDans le monde entier, 85% des professionnels de la cybersécurité attribuent l'augmentation des attaques à la militarisation de la technologie générative AI. À Bengaluru, en Inde, un rapport national a confirmé cette tendance : au début de 2025, 80% des courriels d'hameçonnage étaient générés par AI.

AI est en train de transformer la chaîne d'exécution cybernétique elle-même, et il a la capacité de la transformer en une chaîne d'exécution cybernétique. la possibilité de renforcer chaque étape des cybercampagnes offensives. La vitesse et l'ampleur avec lesquelles AI remodèle cette chaîne sont devenues une préoccupation urgente en matière de sécurité nationale.

Cette boîte à outils se concentre spécifiquement sur le AI en tant qu'outil d'attaque, en explorant la manière dont il transforme les différentes étapes de la chaîne de la mort cybernétique.

Reconnaissance

L'attaquant recueille des informations sur la cible, telles que les coordonnées des employés, les courriels ou les données du système, afin de planifier son attaque.

Comment AI change la reconnaissance :

AI automatise et accélère la collecte de renseignements à partir de sources ouvertes en traitant de grands volumes de données publiques (médias sociaux, sites d'entreprise, fuites de documents) et en extrayant des artefacts structurés tels que des sous-domaines, des plages d'adresses IP probables et des profils d'employés. Il abaisse également la barrière des compétences pour l'ingénierie sociale ciblée en produisant des profils de victimes concis adaptés au spear-phishing.
Ampleur de l'impact : élevée. L'automatisation de l'OSINT réduit considérablement le temps et l'expertise nécessaires.

Cas mis en évidence : ChatGPT comme assistant de reconnaissance

En 2024, Sheetal Tamara, chercheur en cybersécurité a publié un article démontrant comment les grands modèles linguistiques tels que ChatGPT peuvent considérablement accélérer la phase de reconnaissance d'une attaque. Plutôt que de passer des heures à écrire des scripts et à collecter manuellement des renseignements provenant de sources ouvertes, le chercheur a utilisé une courte série d'invites conversationnelles, par exemple : "Listez tous les sous-domaines que vous pouvez trouver pour examplecompany.com", "Résumez la topologie du réseau de l'entreprise en vous basant sur les informations publiquement disponibles" et "Identifiez les systèmes d'exploitation et les services les plus susceptibles de fonctionner sur ces serveurs".

En l'espace de quelques minutes, le modèle a permis de produire des documents de reconnaissance utiles :

  • une liste des domaines et sous-domaines associés à l'entreprise cible
  • Plages d'adresses IP probables
  • notes sur les configurations SSL/TLS, les ports ouverts potentiels et les services courants
  • des informations sur les employés du secteur public (provenant de LinkedIn et de communiqués de presse) qui pourraient être utilisées pour du spear-phishing.

Alors que la collecte d'informations stratégiques nécessiterait normalement des heures ou des jours de travail manuel, l'expérience a réduit la tâche à un flux de travail conversationnel qui exige beaucoup moins d'expertise technique. L'étude souligne donc comment les modèles génératifs peuvent abaisser la barrière de la reconnaissance automatisée, avec des implications claires pour la pratique défensive et la modélisation des menaces.

Autres lectures

Armement

L'attaquant utilise les informations découvertes lors de la reconnaissance pour élaborer ou personnaliser une charge utile malveillante (par exemple, des logiciels malveillants ou des exploits) et exploiter les faiblesses de la cible.

Comment AI modifie l'armement :

AI rationalise la création et le réglage des charges utiles malveillantes en générant ou en modifiant le code et en testant les variantes par rapport aux modèles de détection. Cela permet de produire des charges utiles plus discrètes, adaptatives et ciblées, y compris des variantes polymorphes qui modifient leur apparence à chaque exécution. Les tests adverses peuvent être utilisés pour affiner les charges utiles avant leur déploiement.

Ampleur de l'impact : élevée. L'automatisation permet d'accélérer et d'échelonner le développement des charges utiles.

Cas mis en évidence : Un logiciel malveillant généré par AI dans la nature

En 2024, analystes en cybersécurité a identifié une campagne d'hameçonnage qui, au départ, semblait routinière : une série de courriels distribuant une charge utile de logiciel malveillant classique. Cependant, une inspection plus approfondie du dropper (c'est-à-dire le petit programme responsable de l'installation et de l'activation du logiciel malveillant principal) a révélé une caractéristique inhabituelle.

La structure et la syntaxe du dropper indiquent qu'il a été généré par un grand modèle de langage plutôt que par un programmeur humain. Bien qu'il fonctionne comme un simple wrapper, le dropper produit par AI est à la fois sophistiqué et efficace, démontrant une capacité à échapper aux méthodes de détection traditionnelles. Il a réussi à contourner les signatures antivirus de base et à diffuser le logiciel malveillant comme prévu.

Il s'agit de l'un des premiers cas confirmés de déploiement dans la nature d'un code malveillant généré par AI. Si le logiciel malveillant sous-jacent n'était pas nouveau, l'externalisation d'une partie du processus d'armement à AI a marqué une évolution significative. Elle a montré comment les attaquants pouvaient étendre leurs opérations, réduire les coûts de développement et s'adapter plus rapidement, tout en compliquant les efforts de détection et de réaction.

Autres lectures

Livraison

L'attaquant lance l'attaque en transmettant la charge utile malveillante à la cible, souvent par le biais de courriels d'hameçonnage, de faux sites web ou de réseaux non sécurisés.

Comment AI change la livraison :

AI adapte les mécanismes de diffusion pour maximiser le succès. Il automatise la génération de contenus de phishing convaincants, de deepfakes en temps réel, d'interactions de chat adaptatives et de pages web frauduleuses réalistes, et il utilise des données de reconnaissance pour choisir le moment et le canal de diffusion optimaux. Il utilise également des données de reconnaissance pour choisir le moment et le canal optimaux de diffusion, ce qui réduit le besoin de compétences humaines dans l'exécution des campagnes.

Ampleur de l'impact : élevée. AI augmente considérablement la force de persuasion et l'automatisation de la diffusion.

Affaire mise en lumière : L'escroquerie Deepfake CEO chez Arup

En 2024, le personnel de la La société d'ingénierie britannique Arup a reçu ce qui semblait être un appel vidéo légitime de son directeur général régional. Ce dernier demandait d'urgence un transfert de fonds dans le cadre d'une transaction confidentielle. La personne à l'écran reproduisait l'apparence, la voix et les manières du PDG avec une précision remarquable.

En réalité, l'interlocuteur n'était pas le dirigeant, mais un "deepfake" généré par AI, conçu pour l'imiter en temps réel. Convaincu de l'authenticité de l'interaction, le personnel a autorisé une série de transferts s'élevant à près de 25 millions de dollars américains.

Cet incident est l'un des plus importants cas signalés d'ingénierie sociale par AI au cours de la phase d'exécution d'une cyberattaque. Il illustre le fait que l'hameçonnage ne dépend plus de courriels mal conçus ou de liens douteux. Au contraire, AI permet désormais de déployer des imitations audio et vidéo très réalistes qui contournent non seulement les contrôles techniques, mais aussi le jugement et la confiance de l'homme.

Autres lectures

Exploitation

L'attaquant déclenche la charge utile pour exploiter une vulnérabilité et obtenir un accès non autorisé au système cible. Après avoir infiltré l'organisation, il utilise cet accès pour se déplacer latéralement entre les systèmes afin de trouver des informations pertinentes (par exemple, des données sensibles, des vulnérabilités supplémentaires, des serveurs de messagerie, etc.

Comment AI change l'exploitation :

AI aide les attaquants à identifier, comprendre et exploiter les faiblesses des systèmes en automatisant la découverte des vulnérabilités (par exemple, par un fuzzing intelligent et un balayage guidé), en construisant des arbres d'attaque et en proposant des voies d'exploitation. Il peut également générer des entrées adverses qui contournent les outils de sécurité ou exploitent les défenses.

Ampleur de l'impact : Moyenne. AI améliore la vitesse et l'efficacité de la découverte, en particulier contre les systèmes complexes.

Cas mis en évidence : Le ver Morris II AI

En 2024, chercheurs a mis en évidence une nouvelle forme de ver autopropagé qui ne repose pas sur l'exploitation des vulnérabilités logicielles classiques. Au lieu de cela, il ciblait les systèmes génératifs AI eux-mêmes.

Nommé Morris II En référence au célèbre ver Morris de 1988, cette attaque de démonstration de concept utilisait des messages contradictoires pour manipuler les modèles AI afin qu'ils reproduisent et distribuent des instructions malveillantes. Une fois un système "infecté", le ver pouvait générer de manière autonome d'autres invites qui incitaient le AI à reproduire l'attaque et à la transmettre à d'autres modèles.

Contrairement aux vers traditionnels, qui exploitent généralement un code non corrigé, Morris II en exploitant l'ouverture et l'imprévisibilité du comportement génératif de AI. La démonstration a mis en évidence le fait que les organisations qui intègrent de plus en plus la technologie générative AI dans les flux de travail opérationnels peuvent exposer de nouvelles surfaces d'attaque où la vulnérabilité ne réside pas dans le code source, mais dans les données d'entraînement et les réponses du modèle.

Autres lectures

Installation

L'attaquant installe des logiciels malveillants ou des portes dérobées pour conserver un accès et un contrôle persistants (cachés) au sein du système cible.

Comment AI modifie l'installation :

AI peut produire des techniques de persistance adaptatives et suggérer les vecteurs d'installation les plus efficaces en analysant les données des étapes précédentes, mais l'automatisation complète de la phase d'installation, nuancée et lourde en décisions, reste limitée. Lorsqu'elle est appliquée, la technologie AI permet aux logiciels malveillants de modifier leur comportement afin d'éviter d'être détectés et de choisir le moment et les points d'entrée optimaux.

Ampleur de l'impact : Moyenne. Le AI améliore la persistance et la furtivité, mais l'automatisation complète reste limitée car l'installation exige des décisions contextuelles.

Cas mis en évidence : Un rançongiciel qui apprend à se cacher

En 2024, chercheurs a introduit un système connu sous le nom de EGANun modèle AI développé pour étudier comment les ransomwares peuvent utiliser des stratégies d'apprentissage pour échapper à la détection. Contrairement aux logiciels malveillants statiques traditionnels, qui sont soit identifiés, soit ignorés, EGAN par le biais d'une expérimentation itérative.

Le système a modifié à plusieurs reprises le code du ransomware, testant des variantes successives jusqu'à ce qu'il en produise une capable de contourner les défenses antivirus tout en conservant toutes ses fonctionnalités. En fait, le logiciel malveillant a "appris" à contourner les mécanismes de détection basés sur les anomalies qui sont normalement efficaces pour identifier les comportements suspects.

Bien qu'il ait été créé dans un environnement de recherche, EGAN a démontré comment les mécanismes de persistance pilotés par AI pouvaient rendre les ransomwares beaucoup plus difficiles à détecter et à éradiquer une fois qu'ils sont déployés. Plutôt que de dépendre de techniques d'évasion prédéfinies, les logiciels malveillants s'adaptent de manière dynamique, ce qui laisse entrevoir la perspective d'un logiciel malveillant presque "imbattable".

Autres lectures

Commandement et contrôle

Après avoir pris le contrôle de plusieurs systèmes, l'attaquant crée un centre de contrôle pour les exploiter à distance. Il établit une communication à distance avec le système compromis, via différents canaux (par exemple, le web, le DNS ou le courrier électronique), afin de contrôler les opérations et d'échapper à la détection. Le pirate utilise différentes techniques telles que l'obscurcissement pour brouiller les pistes et éviter la détection, ou des attaques par déni de service pour détourner les professionnels de la sécurité de leurs véritables objectifs.

Comment AI change le commandement et le contrôle (C2) :

AI permet des communications C2 plus secrètes en générant un trafic qui imite l'activité légitime, en concevant des algorithmes évasifs de génération de domaines et en orchestrant des réseaux de zombies décentralisés et adaptatifs. Il peut également adapter le comportement des C2 afin d'échapper aux détecteurs d'anomalies.

Ampleur de l'impact : Moyenne. Le AI accroît la sophistication et la résilience du C2, mais les contraintes opérationnelles limitent son adoption à grande échelle.

Cas mis en évidence : Les réseaux de zombies coordonnés par AI, des essaims qui ont leur propre esprit

En 2023, chercheurs a fait la démonstration d'une nouvelle forme de réseau de zombies alimenté par AI. Les réseaux de zombies classiques reposent généralement sur un serveur central de commande et de contrôle (C2) par l'intermédiaire duquel un centre unique émet des instructions que les machines compromises, ou "bots", exécutent ensuite. Toutefois, cette architecture peut souvent être perturbée une fois que les défenseurs ont identifié et désactivé le serveur central.

Le botnet AI a adopté un modèle différent. Chaque nœud du réseau a utilisé l'apprentissage par renforcement pour déterminer de manière autonome quand lancer des attaques, quelles cibles poursuivre et comment adapter les tactiques en réponse aux mesures défensives. Plutôt que d'attendre des instructions centralisées, les robots ont collaboré de manière décentralisée, fonctionnant comme une sorte de ruche auto-organisée.

Cette conception a rendu le réseau de zombies plus résistant et plus difficile à détecter. Même si certains nœuds étaient neutralisés, les autres pouvaient s'adapter et continuer à fonctionner. Pour les défenseurs, la tâche ne se limitait plus à perturber un seul serveur, mais à contrer un essaim distribué et adaptatif de machines compromises.

Autres lectures

Action sur les objectifs

L'attaquant exécute son objectif final, tel que l'exfiltration, le cryptage ou la destruction de données.

Comment AI modifie l'action sur les objectifs :

AI accélère et affine les tâches finales d'une attaque : exfiltration automatisée de données, priorisation des actifs de grande valeur, messages d'extorsion sur mesure et génération de contenu à grande échelle pour la désinformation ou la perturbation. Les décisions stratégiques finales restent souvent tributaires d'un jugement humain, mais AI raccourcit le chemin vers ces décisions.

Ampleur de l'impact : Moyenne. AI permet d'accélérer et d'échelonner les activités orientées vers un objectif, mais ne remplace pas totalement l'intention humaine.

Cas mis en évidence : PromptLocker, une orchestration de ransomware pilotée par AI

En 2024, des chercheurs de l'Université de New York ont introduit PromptLockerLe système de ransomwares "proof-of-concept" est contrôlé par un grand modèle de langage. Contrairement aux ransomwares classiques, qui suivent des comportements prédéfinis, PromptLocker a pris des décisions en temps réel et a automatisé plusieurs étapes du cycle de vie de l'attaque. Lors de la démonstration, le modèle a été utilisé de manière autonome :

  • ont sélectionné les cibles les plus précieuses d'un système compromis,
  • a exfiltré des données sensibles avant le chiffrement, ce qui a permis d'accroître l'influence sur les victimes,
  • des volumes et des fichiers cryptés pour en interdire l'accès
  • a généré des demandes de rançon sur mesure, en adaptant le ton et les exigences au profil de la victime (par exemple, sa capacité financière et son secteur d'activité).

Bien que les travaux aient été réalisés dans un environnement de recherche contrôlé, PromptLocker a montré comment la AI générative peut automatiser et étendre des tâches qui nécessitaient auparavant une planification humaine, accélérant ainsi la capacité des attaquants à atteindre leurs objectifs et à s'adapter à l'évolution de la situation.

Autres lectures

Questions de discussion

Bibliographie

A Pro-Russia Disinformation Campaign Is Using Free AI Tools to Fuel a Content Explosion | WIRED" (Une campagne de désinformation pro-russe utilise des outils AI gratuits pour alimenter une "explosion de contenu"). Consulté le 19 septembre 2025. https://www.wired.com/story/pro-russia-disinformation-campaign-free-ai-tools/. 

Le ransomware PromptLocker alimenté par AI n'est qu'un projet de recherche de l'université de New York - le code a fonctionné comme un ransomware classique, en sélectionnant des cibles, en exfiltrant des données sélectionnées et en chiffrant des volumes de Tom's Hardware. Consulté le 19 septembre 2025. https://www.tomshardware.com/tech-industry/cyber-security/ai-powered-promptlocker-ransomware-is-just-an-nyu-research-project-the-code-worked-as-a-typical-ransomware-selecting-targets-exfiltrating-selected-data-and-encrypting-volumes. 

Al-Karaki, Jamal, Muhammad Al-Zafar Khan, et Marwan Omar. Exploring LLMs for Malware Detection : Review, Framework Design, and Countermeasure Approaches'. arXiv:2409.07587. Version 1. Preprint, arXiv, 11 septembre 2024. https://doi.org/10.48550/arXiv.2409.07587. 

Anderson, Hyrum S., Anant Kharkar, Bobby Filar, David Evans et Phil Roth. Learning to Evade Static PE Machine Learning Malware Models via Reinforcement Learning". arXiv:1801.08917. Preprint, arXiv, 30 janvier 2018. https://doi.org/10.48550/arXiv.1801.08917. 

Anis, Fatima, et Mohammad Hammoudeh. Weaponizing AI in Cyberattacks A Comparative Study of AI Powered Tools for Offensive Security". Compte rendu de la 8e conférence internationale sur les réseaux futurs et les systèmes distribuésACM, 11 décembre 2024, 283-90. https://doi.org/10.1145/3726122.3726164. 

Buchanan, Ben. Un programme de recherche en matière de sécurité nationale pour la cybersécurité et l'intelligence artificielle". Centre pour la sécurité et les technologies émergentes, 2020. https://cset.georgetown.edu/publication/a-national-security-research-agenda-for-cybersecurity-and-artificial-intelligence/. 

Cohen, Stav, Ron Bitton et Ben Nassi. Here Comes The AI Worm : Unleashing Zero-Click Worms That Target GenAI-Powered Applications'. arXiv:2403.02817. Version 1. Preprint, arXiv, 5 mars 2024. https://doi.org/10.48550/arXiv.2403.02817. 

Commey, Daniel, Benjamin Appiah, Bill K. Frimpong, Isaac Osei, Ebenezer N. A. Hammond et Garth V. Crosby. EGAN : Evolutional GAN for Ransomware Evasion". 2023 IEEE 48e conférence sur les réseaux informatiques locaux (LCN), 2 octobre 2023, 1-9. https://doi.org/10.1109/LCN58197.2023.10223320. 

Cyber Kill Chain® | Lockheed Martin". Consulté le 19 septembre 2025. https://www.lockheedmartin.com/en-us/capabilities/cyber/cyber-kill-chain.html. 

Les cybermenaces dans l'UE : Faits et chiffres - Consilium". Consulté le 22 septembre 2025. https://www.consilium.europa.eu/en/policies/top-cyber-threats/. 

Deepfake Fraudsters Impersonate FTSE Chief Executives". Consulté le 19 septembre 2025. https://www.thetimes.com/business-money/technology/article/deepfake-fraudsters-impersonate-ftse-chief-executives-z9vvnz93l. 

Hack The Box. 5 Anti-Forensics Techniques to Trick Investigators (+ Examples & Detection Tips)". Consulté le 19 septembre 2025. https://www.hackthebox.com/blog/anti-forensics-techniques. 

Hackers Are Using AI to Dissect Threat Intelligence Reports and "Vibe Code" Malware | IT Pro" (Les pirates utilisent AI pour analyser les rapports de renseignements sur les menaces et les logiciels malveillants "Vibe Code"). Consulté le 19 septembre 2025. https://www.itpro.com/security/hackers-are-using-ai-to-dissect-threat-intelligence-reports-and-vibe-code-malware. 

Hoover, Amanda. The Clever New Scam Your Bank Can't Stop" (La nouvelle escroquerie intelligente que votre banque ne peut pas arrêter). Business Insider. Consulté le 19 septembre 2025. https://www.businessinsider.com/bank-account-scam-deepfakes-ai-voice-generator-crime-fraud-2025-5. 

Huynh, Nam, et Beiyu Lin. Large Language Models for Code Generation : A Comprehensive Survey of Challenges, Techniques, Evaluation, and Applications'. arXiv:2503.01245. Preprint, arXiv, 2 avril 2025. https://doi.org/10.48550/arXiv.2503.01245. 

IBM Security X-Force Threat Intelligence Index 2023. n.d. 

Kolosnjaji, Bojan, Ambra Demontis, Battista Biggio, et al. 'Adversarial Malware Binaries : Evading Deep Learning for Malware Detection in Executables'. arXiv:1803.04173. Preprint, arXiv, 12 mars 2018. https://doi.org/10.48550/arXiv.1803.04173. 

Li, Haoyuan, Hao Jiang, Tao Jin, et al. 'DATE : Domain Adaptive Product Seeker for E-Commerce'. arXiv:2304.03669. Preprint, arXiv, 7 avril 2023. https://doi.org/10.48550/arXiv.2304.03669. 

Mirsky, Yisroel, Ambra Demontis, Jaidip Kotak, et al. "The Threat of Offensive AI to Organizations". Ordinateurs et sécurité 124 (janvier 2023) : 103006. https://doi.org/10.1016/j.cose.2022.103006. 

Piplai, Aritran, Sai Sree Laya Chukkapalli et Anupam Joshi. NAttack ! Des attaques adverses pour contourner un classificateur basé sur le GAN et formé pour détecter les intrusions dans les réseaux". 2020 IEEE 6th Intl Conference on Big Data Security on Cloud (BigDataSecurity), IEEE Intl Conference on High Performance and Smart Computing, (HPSC) and IEEE Intl Conference on Intelligent Data and Security (IDS), mai 2020, 49-54. https://doi.org/10.1109/BigDataSecurity-HPSC-IDS49724.2020.00020. 

Polymorphic AI Malware : A Real-World POC and Detection Walkthrough - CardinalOps". Consulté le 19 septembre 2025. https://cardinalops.com/blog/polymorphic-ai-malware-detection/. 

Rid, Thomas. Les mensonges que la Russie se raconte. Affaires étrangères30 septembre 2024. https://www.foreignaffairs.com/united-states/lies-russia-tells-itself. 

Rs 938 Crore Lost to Cybercrooks since Jan | Bengaluru News - Times of India'. Consulté le 22 septembre 2025. https://timesofindia.indiatimes.com/city/bengaluru/rs-938-crore-lost-to-cybercrooks-since-jan/articleshow/122075324.cms. 

Schröer, Saskia Laura, Luca Pajola, Alberto Castagnaro, Giovanni Apruzzese, et Mauro Conti. Exploiter AI pour des attaques : On the Interplay between Adversarial AI and Offensive AI'. arXiv:2506.12519. Version 1. Preprint, arXiv, 14 juin 2025. https://doi.org/10.48550/arXiv.2506.12519. 

Sewak, Mohit, Sanjay K. Sahay, et Hemant Rathore. ADVERSARIALuscator : An Adversarial-DRL Based Obfuscator and Metamorphic Malware SwarmGenerator". 2021 Conférence internationale conjointe sur les réseaux neuronaux (IJCNN), 18 juillet 2021, 1-9. https://doi.org/10.1109/IJCNN52387.2021.9534016. 

Temara, Sheetal. Maximizing Penetration Testing Success with Effective Reconnaissance Techniques Using ChatGPT'. arXiv:2307.06391. Preprint, arXiv, 20 mars 2023. https://doi.org/10.48550/arXiv.2307.06391. 

Townsend, Kevin. Un logiciel malveillant généré par AI a été découvert dans la nature. SecurityWeek, 24 septembre 2024. https://www.securityweek.com/ai-generated-malware-found-in-the-wild/. 

Yamin, Muhammad Mudassar, Mohib Ullah, Habib Ullah et Basel Katt. Weaponized AI for Cyber Attacks" (AI armé pour les cyberattaques). Journal de la sécurité de l'information et de ses applications 57 (mars 2021) : 102722. https://doi.org/10.1016/j.jisa.2020.102722. 

Yang, Kai-Cheng, Danishjeet Singh et Filippo Menczer. Caractéristiques et prévalence des faux profils de médias sociaux avec des visages générés par AI". Journal of Online Trust and Safety (Journal de la confiance et de la sécurité en ligne) 2, no. 4 (2024). https://doi.org/10.54501/jots.v2i4.197. 

Yu, Jingru, Yi Yu, Xuhong Wang, et al. 'The Shadow of Fraud : The Emerging Danger of AI-Powered Social Engineering and Its Possible Cure'. arXiv:2407.15912. Preprint, arXiv, 22 juillet 2024. https://doi.org/10.48550/arXiv.2407.15912. 

Merci de vous être inscrit à notre lettre d'information !

Merci d'avoir répondu à l'appel. RSVP reçu pour AI dans le cyber délit

AI en cybercriminalité

Chargement...

Chargement...