L'IA dans la cybercriminalité
Comment AI modifie la chaîne de la mort cybernétique
Les cyberopérations offensives sont des actions délibérées menées dans le cyberespace pour infiltrer, perturber ou détruire les systèmes de l'adversaire en vue d'atteindre des objectifs stratégiques. Elles sont généralement présentées sous la forme La chaîne de la mort cybernétiqueun cadre développé à l'origine par Lockheed Martin. Ce cadre décompose une attaque en une séquence structurée de phases, retraçant la progression d'un adversaire depuis la reconnaissance initiale jusqu'aux actions finales entreprises pour atteindre les objectifs (par exemple, l'exfiltration ou la destruction de données).
2
2
Armement
Couplage d'un exploit et d'une porte dérobée dans une charge utile livrable
Livraison
Livraison d'un paquet d'armes à la victime par courrier électronique, Internet, USB, etc.
3
3
4
4
Exploitation
Exploitation d'une vulnérabilité pour exécuter du code sur le système de la victime
Installation
Installation de logiciels malveillants sur le bien
5
5
6
6
Commandement et contrôle (C2)
Canal de commande pour la manipulation à distance de la victime
Actions sur les objectifs
Avec l'accès "mains sur le clavier", les intrus atteignent leurs objectifs initiaux.
7
7
Ces dernières années, les cyber-opérations offensives se sont intensifiées en volume et en complexité. Les cyberattaques mondiales ne sont pas seulement en forte augmentation, elles se diversifient également en termes de type.En outre, l'Union européenne a décidé de mettre en place un programme d'aide à l'emploi et à la formation, qui devrait être opérationnel en 2022, 27% des cyberattaques mondiales étaient basées sur l'extorsion, 21% impliquaient des portes dérobées et 17% des ransomwares.. L'intelligence artificielle (AI) joue un rôle majeur dans cette escalade et cette diversification, permettant de nouvelles formes d'attaques telles que les deepfakes ou les swarm malware, tout en renforçant les vecteurs traditionnels tels que le phishing ou l'exploitation de vulnérabilités. Selon le Enquête mondiale sur les directeurs financiersDans le monde entier, 85% des professionnels de la cybersécurité attribuent l'augmentation des attaques à la militarisation de la technologie générative AI. À Bengaluru, en Inde, un rapport national a confirmé cette tendance : au début de 2025, 80% des courriels d'hameçonnage étaient générés par AI.
AI est en train de transformer la chaîne d'exécution cybernétique elle-même, et il a la capacité de la transformer en une chaîne d'exécution cybernétique. la possibilité de renforcer chaque étape des cybercampagnes offensives. La vitesse et l'ampleur avec lesquelles AI remodèle cette chaîne sont devenues une préoccupation urgente en matière de sécurité nationale.
Cette boîte à outils se concentre spécifiquement sur le AI en tant qu'outil d'attaque, en explorant la manière dont il transforme les différentes étapes de la chaîne de la mort cybernétique.
Reconnaissance
L'attaquant recueille des informations sur la cible, telles que les coordonnées des employés, les courriels ou les données du système, afin de planifier son attaque.
Comment AI change la reconnaissance :
Cas mis en évidence : ChatGPT comme assistant de reconnaissance
En 2024, Sheetal Tamara, chercheur en cybersécurité a publié un article démontrant comment les grands modèles linguistiques tels que ChatGPT peuvent considérablement accélérer la phase de reconnaissance d'une attaque. Plutôt que de passer des heures à écrire des scripts et à collecter manuellement des renseignements provenant de sources ouvertes, le chercheur a utilisé une courte série d'invites conversationnelles, par exemple : "Listez tous les sous-domaines que vous pouvez trouver pour examplecompany.com", "Résumez la topologie du réseau de l'entreprise en vous basant sur les informations publiquement disponibles" et "Identifiez les systèmes d'exploitation et les services les plus susceptibles de fonctionner sur ces serveurs".
En l'espace de quelques minutes, le modèle a permis de produire des documents de reconnaissance utiles :
- une liste des domaines et sous-domaines associés à l'entreprise cible
- Plages d'adresses IP probables
- notes sur les configurations SSL/TLS, les ports ouverts potentiels et les services courants
- des informations sur les employés du secteur public (provenant de LinkedIn et de communiqués de presse) qui pourraient être utilisées pour du spear-phishing.
Alors que la collecte d'informations stratégiques nécessiterait normalement des heures ou des jours de travail manuel, l'expérience a réduit la tâche à un flux de travail conversationnel qui exige beaucoup moins d'expertise technique. L'étude souligne donc comment les modèles génératifs peuvent abaisser la barrière de la reconnaissance automatisée, avec des implications claires pour la pratique défensive et la modélisation des menaces.
-
Outils d'analyse automatisés - "Weaponizing AI in Cyberattacks A Comparative Study of AI powered Tools for Offensive Security" (Annis & Hamoudeh 2025)
L'étude comparative montre comment les outils automatisés (par exemple, WebCopilot, Sublist3r, RustScan+Nmap) accélèrent l'analyse du réseau et l'énumération des sous-domaines. Les résultats montrent comment AI pourrait automatiser davantage les tâches offensives telles que la simulation de scénarios d'attaque et l'adaptation dynamique aux défenses, ouvrant ainsi la voie à des opérations de sécurité offensives entièrement automatisées. -
AI outils de reconnaissance - "The Threat of Offensive AI to Organizations" (Mirsky et al. 2023)
L'enquête met en lumière 32 outils AI offensifs utilisant l'apprentissage profond, l'apprentissage par renforcement et le NLP pour automatiser la détection des points d'entrée, la construction de persona et la sélection des cibles. Ces outils améliorent l'OSINT, permettent de réaliser des deepfakes réalistes pour le phishing et permettent même aux attaquants inexpérimentés de planifier et de lancer des campagnes plus percutantes. -
Collecte d'informations et exploitation automatique - "Weaponized AI for cyber attacks" (Yamin et al. 2021)
La recherche étudie les cyberattaques récentes qui ont utilisé des techniques basées sur AI et identifie les stratégies d'atténuation pertinentes. Elle met en évidence divers outils AI (par exemple GyoiThon, Deep Exploit) qui peuvent aider à collecter des données sur le système, les cibles possibles et les mesures de défense.
Armement
L'attaquant utilise les informations découvertes lors de la reconnaissance pour élaborer ou personnaliser une charge utile malveillante (par exemple, des logiciels malveillants ou des exploits) et exploiter les faiblesses de la cible.
Comment AI modifie l'armement :
AI rationalise la création et le réglage des charges utiles malveillantes en générant ou en modifiant le code et en testant les variantes par rapport aux modèles de détection. Cela permet de produire des charges utiles plus discrètes, adaptatives et ciblées, y compris des variantes polymorphes qui modifient leur apparence à chaque exécution. Les tests adverses peuvent être utilisés pour affiner les charges utiles avant leur déploiement.
Cas mis en évidence : Un logiciel malveillant généré par AI dans la nature
En 2024, analystes en cybersécurité a identifié une campagne d'hameçonnage qui, au départ, semblait routinière : une série de courriels distribuant une charge utile de logiciel malveillant classique. Cependant, une inspection plus approfondie du dropper (c'est-à-dire le petit programme responsable de l'installation et de l'activation du logiciel malveillant principal) a révélé une caractéristique inhabituelle.
La structure et la syntaxe du dropper indiquent qu'il a été généré par un grand modèle de langage plutôt que par un programmeur humain. Bien qu'il fonctionne comme un simple wrapper, le dropper produit par AI est à la fois sophistiqué et efficace, démontrant une capacité à échapper aux méthodes de détection traditionnelles. Il a réussi à contourner les signatures antivirus de base et à diffuser le logiciel malveillant comme prévu.
Il s'agit de l'un des premiers cas confirmés de déploiement dans la nature d'un code malveillant généré par AI. Si le logiciel malveillant sous-jacent n'était pas nouveau, l'externalisation d'une partie du processus d'armement à AI a marqué une évolution significative. Elle a montré comment les attaquants pouvaient étendre leurs opérations, réduire les coûts de développement et s'adapter plus rapidement, tout en compliquant les efforts de détection et de réaction.
-
Malware polymorphe amélioré par AI - "Polymorphic AI Malware : A Real-World POC and Detection Walkthrough" (Itkin 2025)
L'article propose une preuve de concept d'un logiciel malveillant polymorphe alimenté par AI qui réécrit dynamiquement son code au moment de l'exécution pour échapper à la détection, sous la forme d'un enregistreur de frappe qui génère des charges utiles obscurcies à chaque exécution. -
Grands modèles linguistiques pour la génération de code - "Modèles de langage à grande échelle pour la génération de code : Une étude complète des défis, des techniques, de l'évaluation et des applications" (Huynh & Lin 2025)
L'étude montre comment les LLM (par exemple, CodeLlama, Copilot) peuvent générer automatiquement un code exécutable à partir d'un langage naturel, réduisant ainsi les obstacles à la création de logiciels malveillants, au développement d'exploits et à l'adaptation des charges utiles par les attaquants. -
Techniques d'obscurcissement inédites générées par AI - "ADVERSARIALuscator : An Adversarial-DRL Based Obfuscator and Metamorphic Malware SwarmGenerator" (Sewak et al. 2021)
L'article présente ADVERSARIALuscator, un AI capable de réécrire automatiquement le code d'un logiciel malveillant pour en créer de nombreuses versions et lui donner une apparence différente à chaque fois afin d'éviter d'être détecté par les systèmes de sécurité. Lors de tests, environ un tiers de ces variantes ont pu contourner les systèmes de sécurité avancés. -
Malware de "codage vibratoire" piloté par AI - Les pirates utilisent AI pour disséquer les rapports de renseignements sur les menaces et les logiciels malveillants de type "vibe code" (Kelly 2025)
Dans cet article, des chercheurs en sécurité signalent que les pirates utilisent la technologie générative AI pour lire et interpréter les rapports de renseignements sur les menaces, puis produire automatiquement des logiciels malveillants fonctionnels. Baptisée "vibe-coding", cette technique traduit en code des analyses lisibles par l'homme, ce qui permet aux adversaires de transformer rapidement les recherches publiques en matière de cybersécurité en exploits.
Livraison
L'attaquant lance l'attaque en transmettant la charge utile malveillante à la cible, souvent par le biais de courriels d'hameçonnage, de faux sites web ou de réseaux non sécurisés.
Comment AI change la livraison :
AI adapte les mécanismes de diffusion pour maximiser le succès. Il automatise la génération de contenus de phishing convaincants, de deepfakes en temps réel, d'interactions de chat adaptatives et de pages web frauduleuses réalistes, et il utilise des données de reconnaissance pour choisir le moment et le canal de diffusion optimaux. Il utilise également des données de reconnaissance pour choisir le moment et le canal optimaux de diffusion, ce qui réduit le besoin de compétences humaines dans l'exécution des campagnes.
Affaire mise en lumière : L'escroquerie Deepfake CEO chez Arup
En 2024, le personnel de la La société d'ingénierie britannique Arup a reçu ce qui semblait être un appel vidéo légitime de son directeur général régional. Ce dernier demandait d'urgence un transfert de fonds dans le cadre d'une transaction confidentielle. La personne à l'écran reproduisait l'apparence, la voix et les manières du PDG avec une précision remarquable.
En réalité, l'interlocuteur n'était pas le dirigeant, mais un "deepfake" généré par AI, conçu pour l'imiter en temps réel. Convaincu de l'authenticité de l'interaction, le personnel a autorisé une série de transferts s'élevant à près de 25 millions de dollars américains.
Cet incident est l'un des plus importants cas signalés d'ingénierie sociale par AI au cours de la phase d'exécution d'une cyberattaque. Il illustre le fait que l'hameçonnage ne dépend plus de courriels mal conçus ou de liens douteux. Au contraire, AI permet désormais de déployer des imitations audio et vidéo très réalistes qui contournent non seulement les contrôles techniques, mais aussi le jugement et la confiance de l'homme.
-
LLM pour l'ingénierie sociale et le phishing à grande échelle - "Exploration des LLM pour la détection des logiciels malveillants : Review, Framework Design, and Countermeasure Approaches" (Al-Karaki & Khan 2024)
L'article décrit comment les LLM peuvent être utilisés pour automatiser le contenu du phishing, générer des logiciels malveillants polymorphes et créer des entrées adverses. -
L'ingénierie sociale alimentée par AI - "L'ombre de la fraude : The Emerging Danger of AI-powered Social Engineering and its Possible Cure" (Yu et al. 2024)
L'étude montre comment les modèles de diffusion et les LLM rendent l'hameçonnage et l'usurpation d'identité plus personnalisés et plus convaincants. Elle classe l'ingénierie sociale facilitée par AI en "phases 3E" (Enlarging, Enriching, Emerging), soulignant comment les attaquants peuvent étendre leurs campagnes, introduire de nouveaux vecteurs et exploiter de nouvelles menaces, ce qui rend la diffusion de charges utiles malveillantes plus efficace. -
Fraude vocale générée par AI / hameçonnage - "J'ai escroqué ma banque" (Hoover 2025)
L'expérience d'un journaliste qui révèle l'existence d'une fausse voix générée par AI et utilisée pour escroquer des comptes bancaires.
Exploitation
L'attaquant déclenche la charge utile pour exploiter une vulnérabilité et obtenir un accès non autorisé au système cible. Après avoir infiltré l'organisation, il utilise cet accès pour se déplacer latéralement entre les systèmes afin de trouver des informations pertinentes (par exemple, des données sensibles, des vulnérabilités supplémentaires, des serveurs de messagerie, etc.
Comment AI change l'exploitation :
AI aide les attaquants à identifier, comprendre et exploiter les faiblesses des systèmes en automatisant la découverte des vulnérabilités (par exemple, par un fuzzing intelligent et un balayage guidé), en construisant des arbres d'attaque et en proposant des voies d'exploitation. Il peut également générer des entrées adverses qui contournent les outils de sécurité ou exploitent les défenses.
Cas mis en évidence : Le ver Morris II AI
En 2024, chercheurs a mis en évidence une nouvelle forme de ver autopropagé qui ne repose pas sur l'exploitation des vulnérabilités logicielles classiques. Au lieu de cela, il ciblait les systèmes génératifs AI eux-mêmes.
Nommé Morris II En référence au célèbre ver Morris de 1988, cette attaque de démonstration de concept utilisait des messages contradictoires pour manipuler les modèles AI afin qu'ils reproduisent et distribuent des instructions malveillantes. Une fois un système "infecté", le ver pouvait générer de manière autonome d'autres invites qui incitaient le AI à reproduire l'attaque et à la transmettre à d'autres modèles.
Contrairement aux vers traditionnels, qui exploitent généralement un code non corrigé, Morris II en exploitant l'ouverture et l'imprévisibilité du comportement génératif de AI. La démonstration a mis en évidence le fait que les organisations qui intègrent de plus en plus la technologie générative AI dans les flux de travail opérationnels peuvent exposer de nouvelles surfaces d'attaque où la vulnérabilité ne réside pas dans le code source, mais dans les données d'entraînement et les réponses du modèle.
-
Adversaire et offensif AI - "Exploiter AI pour des attaques : On Interplay between Adversarial AI and Offensive AI" (Shröer & Pajola 2025)
L'étude décrit comment les attaquants peuvent exploiter les vulnérabilités des systèmes AI par le biais d'intrants adverses, ou armer AI lui-même pour lancer des exploits plus efficaces contre des cibles traditionnelles, soulignant le double rôle de AI en tant qu'outil et cible dans les cyberattaques. -
Binaires de logiciels malveillants - "Adversarial Malware Binaries : Evading Deep Learning for Malware Detection in Executables" (Kolosnjarski et al. 2018)
L'étude présente des attaques basées sur le gradient qui modifient moins de 1% d'octets dans les exécutables tout en préservant les fonctionnalités, échappant ainsi avec succès aux détecteurs de logiciels malveillants à apprentissage profond formés sur les octets bruts.
Installation
L'attaquant installe des logiciels malveillants ou des portes dérobées pour conserver un accès et un contrôle persistants (cachés) au sein du système cible.
Comment AI modifie l'installation :
AI peut produire des techniques de persistance adaptatives et suggérer les vecteurs d'installation les plus efficaces en analysant les données des étapes précédentes, mais l'automatisation complète de la phase d'installation, nuancée et lourde en décisions, reste limitée. Lorsqu'elle est appliquée, la technologie AI permet aux logiciels malveillants de modifier leur comportement afin d'éviter d'être détectés et de choisir le moment et les points d'entrée optimaux.
Cas mis en évidence : Un rançongiciel qui apprend à se cacher
En 2024, chercheurs a introduit un système connu sous le nom de EGANun modèle AI développé pour étudier comment les ransomwares peuvent utiliser des stratégies d'apprentissage pour échapper à la détection. Contrairement aux logiciels malveillants statiques traditionnels, qui sont soit identifiés, soit ignorés, EGAN par le biais d'une expérimentation itérative.
Le système a modifié à plusieurs reprises le code du ransomware, testant des variantes successives jusqu'à ce qu'il en produise une capable de contourner les défenses antivirus tout en conservant toutes ses fonctionnalités. En fait, le logiciel malveillant a "appris" à contourner les mécanismes de détection basés sur les anomalies qui sont normalement efficaces pour identifier les comportements suspects.
Bien qu'il ait été créé dans un environnement de recherche, EGAN a démontré comment les mécanismes de persistance pilotés par AI pouvaient rendre les ransomwares beaucoup plus difficiles à détecter et à éradiquer une fois qu'ils sont déployés. Plutôt que de dépendre de techniques d'évasion prédéfinies, les logiciels malveillants s'adaptent de manière dynamique, ce qui laisse entrevoir la perspective d'un logiciel malveillant presque "imbattable".
-
Évasion des logiciels malveillants basée sur la logique logique (RL) - "Learning to Evade Static PE Machine Learning Malware Models via Reinforcement Learning" (Anderson et al. 2018)
L'étude montre comment les agents d'apprentissage par renforcement peuvent modifier itérativement les logiciels malveillants Windows PE en préservant leurs fonctionnalités afin d'échapper aux détecteurs de logiciels malveillants statiques à apprentissage automatique, ce qui permet l'installation adaptative de logiciels malveillants persistants dans une boîte noire.
Commandement et contrôle
Après avoir pris le contrôle de plusieurs systèmes, l'attaquant crée un centre de contrôle pour les exploiter à distance. Il établit une communication à distance avec le système compromis, via différents canaux (par exemple, le web, le DNS ou le courrier électronique), afin de contrôler les opérations et d'échapper à la détection. Le pirate utilise différentes techniques telles que l'obscurcissement pour brouiller les pistes et éviter la détection, ou des attaques par déni de service pour détourner les professionnels de la sécurité de leurs véritables objectifs.
Comment AI change le commandement et le contrôle (C2) :
AI permet des communications C2 plus secrètes en générant un trafic qui imite l'activité légitime, en concevant des algorithmes évasifs de génération de domaines et en orchestrant des réseaux de zombies décentralisés et adaptatifs. Il peut également adapter le comportement des C2 afin d'échapper aux détecteurs d'anomalies.
Cas mis en évidence : Les réseaux de zombies coordonnés par AI, des essaims qui ont leur propre esprit
En 2023, chercheurs a fait la démonstration d'une nouvelle forme de réseau de zombies alimenté par AI. Les réseaux de zombies classiques reposent généralement sur un serveur central de commande et de contrôle (C2) par l'intermédiaire duquel un centre unique émet des instructions que les machines compromises, ou "bots", exécutent ensuite. Toutefois, cette architecture peut souvent être perturbée une fois que les défenseurs ont identifié et désactivé le serveur central.
Le botnet AI a adopté un modèle différent. Chaque nœud du réseau a utilisé l'apprentissage par renforcement pour déterminer de manière autonome quand lancer des attaques, quelles cibles poursuivre et comment adapter les tactiques en réponse aux mesures défensives. Plutôt que d'attendre des instructions centralisées, les robots ont collaboré de manière décentralisée, fonctionnant comme une sorte de ruche auto-organisée.
Cette conception a rendu le réseau de zombies plus résistant et plus difficile à détecter. Même si certains nœuds étaient neutralisés, les autres pouvaient s'adapter et continuer à fonctionner. Pour les défenseurs, la tâche ne se limitait plus à perturber un seul serveur, mais à contrer un essaim distribué et adaptatif de machines compromises.
-
Dissimulation des journaux et des traces à l'aide de AI "5 anti-forensics techniques to trick investigators (+ examples & detection tips)" (CyberJunkie 2023)
En 2024-2025, des rapports ont décrit comment AI pouvait être utilisé pour effacer ou modifier des journaux numériques afin de dissimuler des attaques aux enquêteurs, bien que les exemples réels soient encore rares. -
Contournement des systèmes de détection d'intrusion dans les réseaux basés sur le GAN - "NAttack ! Adversarial Attacks to bypass a GAN based classifier trained to detect Network intrusion" (Piplai et al. 2020)
L'étude montre comment les attaques adverses peuvent échapper avec succès aux systèmes de détection d'intrusion entraînés par le GAN, ce qui permet aux attaquants de déguiser le trafic C2 en activité normale du réseau.
Action sur les objectifs
L'attaquant exécute son objectif final, tel que l'exfiltration, le cryptage ou la destruction de données.
Comment AI modifie l'action sur les objectifs :
AI accélère et affine les tâches finales d'une attaque : exfiltration automatisée de données, priorisation des actifs de grande valeur, messages d'extorsion sur mesure et génération de contenu à grande échelle pour la désinformation ou la perturbation. Les décisions stratégiques finales restent souvent tributaires d'un jugement humain, mais AI raccourcit le chemin vers ces décisions.
Cas mis en évidence : PromptLocker, une orchestration de ransomware pilotée par AI
En 2024, des chercheurs de l'Université de New York ont introduit PromptLockerLe système de ransomwares "proof-of-concept" est contrôlé par un grand modèle de langage. Contrairement aux ransomwares classiques, qui suivent des comportements prédéfinis, PromptLocker a pris des décisions en temps réel et a automatisé plusieurs étapes du cycle de vie de l'attaque. Lors de la démonstration, le modèle a été utilisé de manière autonome :
- ont sélectionné les cibles les plus précieuses d'un système compromis,
- a exfiltré des données sensibles avant le chiffrement, ce qui a permis d'accroître l'influence sur les victimes,
- des volumes et des fichiers cryptés pour en interdire l'accès
- a généré des demandes de rançon sur mesure, en adaptant le ton et les exigences au profil de la victime (par exemple, sa capacité financière et son secteur d'activité).
Bien que les travaux aient été réalisés dans un environnement de recherche contrôlé, PromptLocker a montré comment la AI générative peut automatiser et étendre des tâches qui nécessitaient auparavant une planification humaine, accélérant ainsi la capacité des attaquants à atteindre leurs objectifs et à s'adapter à l'évolution de la situation.
-
La désinformation générée par AI à grande échelle - Une campagne de désinformation pro-russe utilise des outils AI gratuits pour alimenter une "explosion de contenu" (Gilbert 2025)
L'article explique comment la campagne Operation Overload (2023-2025), liée à la Russie, utilise des outils AI pour produire en masse de fausses images, vidéos et clips vocaux de personnalités publiques. Ce matériel est largement diffusé via des réseaux de robots sur les médias sociaux afin de propager des récits qui sèment la discorde. -
AI-fabrique de faux profils sociaux pour l'amplification - "Caractéristiques et prévalence des faux profils de médias sociaux avec des visages générés par AI" (Yang et al. 2024)
L'enquête a permis de découvrir plus de 1 400 comptes Twitter utilisant des photos de profil générées par AI, organisés en réseaux pour favoriser les escroqueries et les messages à caractère politique, avec des milliers de comptes de ce type actifs quotidiennement. -
AI a créé de faux documents et de faux organes d'information (psyops) - "Les mensonges que la Russie se raconte Les propagandistes du pays ciblent l'Occident, mais trompent aussi le Kremlin" (Rid 2024)
L'article explique comment une campagne de "doppelgänger" a créé des versions contrefaites convaincantes de sites d'information légitimes et a publié des articles générés par AI pour promouvoir des récits pro-russes dans l'ensemble de l'Occident.
Questions de discussion
- Quelle étape de la chaîne de la mort cybernétique est susceptible d'être la plus transformée par AI à l'avenir, et pourquoi ? À l'heure actuelle, à quel stade la technologie AI donne-t-elle les résultats les plus prometteurs pour les attaquants ? À quel stade la mise en œuvre de AI semble-t-elle moins efficace et moins prometteuse ?
- Le AI fait-il pencher l'avantage dans le cyberespace du côté des attaquants ou des défenseurs ?
- L'accès généralisé à AI permettra-t-il aux amateurs de jouer à armes égales ou donnera-t-il surtout plus de pouvoir à des adversaires disposant de ressources suffisantes ?
- Comment la capacité de AI à automatiser et à accélérer la chaîne de la mort cybernétique modifie-t-elle la nature des cyberattaques ?
- Le AI pourrait-il rendre les attaques si rapides et si adaptatives que les cadres de défense traditionnels deviendraient obsolètes ?
- Qui est responsable de l'utilisation abusive des modèles AI à des fins de cyberattaque : les développeurs, les déployeurs ou les attaquants ?
- Comment les décideurs politiques peuvent-ils réglementer le AI offensif sans étouffer l'innovation dans les applications défensives ou civiles ?
- Le AI va-t-il faire évoluer les conflits cybernétiques vers une guerre plus autonome, de type "machine contre machine" ?
- Le AI pourrait-il modifier fondamentalement le modèle de la chaîne d'exécution cybernétique pour en faire quelque chose de non linéaire et d'adaptable en permanence ?