L'IA dans la cyberdéfense

Comment l'IA modifie la cyberdéfense tout au long du cycle de vie des cyberincidents

La cyberdéfense vise à protéger les systèmes, les réseaux et les données contre l'infiltration, la perturbation ou la destruction. La cyberdéfense cycle de vie des cyberincidents propose une manière utile de comprendre la cyberdéfense, en la décomposant en quatre phases :

  • La prévention : prévenir et réduire les risques d'incidents et minimiser leurs effets potentiels.
  • Préparation : l'élaboration de plans, d'outils et de capacités pour soutenir une réponse efficace.
  • Réponse : de mettre fin à l'incident et d'éviter d'autres dommages.
  • Récupération : rétablir rapidement les opérations et revenir à un niveau de sécurité normal ou plus élevé.

 

L'intelligence artificielle (IA) est devenue pertinente dans les quatre phases. Contrairement aux outils traditionnels qui s'intègrent parfaitement à une seule étape, de nombreuses capacités d'IA s'étendent à l'ensemble du cycle de vie : la même technique qui soutient la préparation peut également permettre une réponse plus rapide ou aider au rétablissement. Cette intégration rend l'IA à la fois puissante et difficile à classer : sa valeur réside non seulement dans l'amélioration des tâches individuelles, mais aussi dans le fait qu'elle permet de relier les phases entre elles de manière plus transparente.

La prévention

Préparation

Réponse

Récupération

Cartographie de la surface d'attaque

Numérisation du code

Synthèse des données

Classification des données

Détection des anomalies

Rédaction et analyse

Données synthétiques

Gestion des identités et des accès

Gestion des identités et des accès

Analyse du journal

Analyse des logiciels malveillants

Formation et laboratoires

Formation et laboratoires

Dans les sections qui suivent, nous examinons des applications concrètes de l'IA pour la cyberdéfense, en montrant comment elles s'intègrent dans les différentes phases du cycle de vie des incidents et, dans de nombreux cas, en couvrent plusieurs à la fois.

Cartographie de la surface d'attaque

La cartographie de la surface d'attaque identifie tous les actifs, points d'entrée et vulnérabilités qu'un adversaire pourrait exploiter lors d'une attaque. Elle offre aux défenseurs une visibilité sur leur exposition et les aide à définir les priorités en matière de sécurisation.

Comment l'IA modifie la cartographie de la surface d'attaque :

L'IA transforme la cartographie de la surface d'attaque en automatisant les analyses à grande échelle des réseaux et des actifs, ce qui réduit considérablement les efforts manuels. Grâce à une reconnaissance avancée des formes, elle peut détecter des points d'extrémité cachés ou oubliés que les méthodes traditionnelles ne parviennent souvent pas à détecter. Les systèmes d'IA peuvent mettre à jour les cartes en continu au fur et à mesure que les infrastructures évoluent, réduisant ainsi les angles morts et garantissant que les défenseurs conservent une image précise et en temps réel de leur environnement.
La prévention. Réduit les risques avant que les attaquants ne les exploitent.
Préparation. Maintient une vue actualisée de l'infrastructure pour la planification des incidents.

Cas mis en évidence : Utilisation de LLM pour la découverte d'actifs dans les infrastructures critiques

En 2025, Luigi Coppolino et al a publié une étude montrant comment les grands modèles de langage (LLM) peuvent améliorer la découverte d'actifs dans les infrastructures critiques. Les outils traditionnels tels que Nmap ou les plateformes de sécurité industrielle risquent de perturber les systèmes sensibles par des analyses actives ou ne détectent pas les dispositifs cachés lorsqu'ils s'appuient uniquement sur une surveillance passive.

Les chercheurs ont proposé un cadre de "mélange d'experts" basé sur le LLM qui combine des données provenant de l'observation passive du trafic, d'un sondage actif soigneusement limité et de signaux physiques tels que les émissions électromagnétiques. Des agents LLM spécialisés interprètent ensuite ces données : l'un se concentre sur les protocoles industriels, un autre sur les vulnérabilités des réseaux IT/OT, et un autre sur l'architecture et les dépendances des systèmes.

Le système peut également s'appuyer sur des sources de renseignements externes (telles que les bases de données ATT&CK ou CVE de MITRE) pour identifier les faiblesses et recommander des mesures de sécurité. Lors de tests sur un réseau industriel simulé, il a réussi à classifier des actifs tels que des contrôleurs logiques programmables, des bras robotisés et des imprimantes, tout en signalant des pratiques non sécurisées telles que le trafic Modbus non crypté.

Cette approche transforme la cartographie de la surface d'attaque en un processus adaptatif et contextuel qui offre une visibilité en temps réel et réduit les risques de l'analyse traditionnelle. En abaissant les barrières techniques pour les défenseurs, elle permet une surveillance plus complète et renforce la posture de sécurité globale des infrastructures critiques.

Autres lectures

Numérisation et évaluation des codes

L'analyse du code examine le code source pour détecter les vulnérabilités, les bibliothèques non sécurisées ou les mauvaises pratiques de sécurité avant qu'elles ne puissent être exploitées.

Comment l'IA modifie l'analyse et l'évaluation des codes :

L'IA accélère la détection des vulnérabilités en mettant en évidence les fonctions non sécurisées et en identifiant les schémas de codage risqués tirés d'exploits antérieurs. Elle propose également des suggestions de remédiation automatisées, aidant ainsi les développeurs à écrire un code plus sûr et réduisant la fenêtre d'opportunité pour les attaquants.

La prévention. Corrige les faiblesses avant que les attaquants ne les découvrent.
Préparation. Renforce le dispositif de sécurité de base pour la préparation aux incidents.

Cas mis en évidence : Utilisation des LLM pour l'analyse du code et le développement sécurisé

En 2025, Belozerov et al ont étudié la manière dont les grands modèles de langage peuvent soutenir les pratiques de codage sécurisées. Leur étude a testé ChatGPT par rapport à l'ensemble de données DevGPT, qui contenait du code de développeur réel ainsi que des vulnérabilités connues signalées par des scanners statiques. Sur 32 vulnérabilités confirmées, ChatGPT en a correctement détecté 18 et a même suggéré des correctifs pour 17 d'entre elles.

Les résultats montrent comment l'IA peut réduire l'effort manuel dans l'examen du code, aider à trier les modèles de codage à risque et fournir des suggestions de remédiation automatisées. Cela pourrait permettre de renforcer les pratiques de codage sécurisé et de réduire la période pendant laquelle les vulnérabilités restent exploitables.

Dans le même temps, l'étude a mis l'accent sur d'importantes limites : ChatGPT a parfois produit des résultats trop confiants mais incorrects, a introduit de nouvelles failles lors des tentatives de correction et s'est avéré moins fiable que l'analyse statique ou l'examen par un expert humain. L'un des principaux enseignements de cette étude est que l'IA peut être un assistant puissant dans l'évaluation du code, mais uniquement lorsqu'elle est associée à des outils traditionnels et à une supervision adéquate.

Autres lectures

Synthèse des données

La synthèse des données permet de condenser de grands volumes de données techniques (par exemple, des journaux, des rapports et des renseignements sur les menaces) pour en tirer des informations accessibles.

Comment l'IA modifie la synthèse des données :

L'IA réduit la surcharge cognitive en transformant les informations brutes et non structurées en renseignements exploitables. Elle peut identifier des schémas récurrents ou des anomalies dans des ensembles de données fragmentés. Elle peut également générer des rapports en langage clair pour les non-spécialistes. L'IA rend donc l'information plus facile à consommer, à communiquer et à exploiter.

Préparation. Permet d'assimiler les informations sur les menaces et de planifier plus efficacement.
Réponse. Rationalise la connaissance de la situation en temps réel.
Récupération. Rédiger des résumés et des rapports sur les enseignements tirés de l'expérience.

Cas mis en évidence : L'IA au service de la synthèse des journaux et de la connaissance de la situation

En 2024, Balasubramanian et al a présenté CYGENT, un agent conversationnel basé sur GPT-3, capable d'analyser et de résumer les journaux des systèmes. Au lieu de demander aux analystes de passer au crible des milliers d'entrées de journaux bruts, CYGENT les condense en de courtes sorties lisibles par l'homme qui mettent en évidence les événements et les anomalies clés.

Lors des évaluations, CYGENT a surpassé d'autres grands modèles linguistiques en produisant des résumés clairs et exploitables. Le système a permis de réduire la surcharge cognitive, d'améliorer la connaissance de la situation lors d'incidents réels et d'accélérer la prise de décision.

Ce cas illustre comment l'IA peut transformer des données brutes et techniques en renseignements accessibles. En facilitant l'interprétation des journaux, elle aide les défenseurs à se préparer plus efficacement, à réagir plus rapidement et à se rétablir avec une meilleure documentation après les incidents.

Autres lectures

Classification des données

La classification des données permet d'organiser les informations en fonction de leur sensibilité ou des exigences de conformité, ce qui garantit que les actifs critiques bénéficient d'une protection appropriée.

Comment l'IA modifie la classification des données :

L'IA utilise le traitement du langage naturel pour étiqueter automatiquement les contenus sensibles et détecter les données mal classées ou exposées à grande échelle.

La prévention. Réduit l'exposition accidentelle de données sensibles.
Préparation. Favorise la conformité.

Cas mis en évidence : L'IA pour la classification des données sensibles

En 2024, De Renzis et al a étudié la manière dont les grands modèles de langage pouvaient être utilisés pour améliorer la classification des informations sensibles. L'un des principaux défis dans ce domaine est que les données personnelles réelles ne peuvent pas toujours être utilisées pour la formation en raison des risques liés à la protection de la vie privée. Les auteurs ont proposé de générer des données de formation synthétiques qui reflètent toujours les modèles des catégories sensibles, telles que la santé, la politique ou la religion.

Leur approche a permis de former des classificateurs précis sans exposer les données réelles des utilisateurs, démontrant ainsi comment l'IA peut aider les organisations à se conformer à des réglementations telles que le GDPR tout en augmentant leur capacité à détecter et à protéger les informations sensibles. Ce cas illustre comment l'IA renforce à la fois la prévention (en réduisant l'exposition accidentelle des données) et la préparation (en soutenant les cadres de conformité). En même temps, il souligne l'importance de la gouvernance et de la validation pour s'assurer que les données synthétiques et les modèles qui en résultent restent représentatifs et fiables.

Autres lectures

Détection d'anomalies au niveau des points finaux ou du réseau

La détection des anomalies permet de surveiller les points d'extrémité et le trafic réseau afin de déceler des comportements inhabituels susceptibles d'indiquer une compromission.

Comment l'IA modifie la détection des anomalies au niveau des points finaux et du réseau :

L'IA apprend ce à quoi ressemble une activité normale et signale les écarts qui pourraient indiquer une activité malveillante. Contrairement aux systèmes basés sur les signatures, elle peut détecter des intrusions plus subtiles qui échappent à la détection traditionnelle. L'IA permet une réponse plus rapide et plus efficace aux incidents en hiérarchisant les alertes et en réduisant les faux positifs.

Préparation. Établit les bases de l'activité normale.
Réponse. Détecte les anomalies en temps réel pour signaler et contenir les attaques.

Cas mis en évidence : Utilisation de l'IA pour la détection d'anomalies dans les systèmes critiques

En 2024, Nwoye et Nwagwughiagwu a examiné comment la détection d'anomalies pilotée par l'IA pouvait améliorer la cyberdéfense au niveau des terminaux et des réseaux. En utilisant des modèles d'apprentissage automatique formés sur des modèles normaux de comportement des systèmes et de trafic réseau, leur approche leur a permis d'identifier des déviations subtiles que les systèmes traditionnels basés sur les signatures ne verraient pas, y compris, par exemple, les signes précoces de menaces internes et d'atteintes à la protection des données.

L'étude présente des exemples de cas dans des secteurs critiques, montrant que la détection d'anomalies par l'IA a permis de réduire les temps de réponse et de maintenir la continuité des activités en signalant les activités suspectes avant qu'elles ne causent de graves dommages. Les auteurs ont également reconnu les défis à relever, notamment les faux positifs et le besoin de transparence dans les modèles d'IA complexes. Ce cas montre comment l'IA contribue à la fois à la préparation (en établissant des lignes de base de l'activité normale) et à la réponse (en détectant et en hiérarchisant les anomalies en temps réel).

Autres lectures

Tâches générales de rédaction et de collecte/analyse de données

Les opérations défensives impliquent également de nombreux travaux de rédaction, de recherche et d'analyse de données afin de documenter les incidents, d'informer les décisions et de former le personnel.

Comment l'IA modifie les tâches générales de rédaction et de collecte ou d'analyse de données :

L'IA peut rédiger des rapports, des politiques et des comptes rendus d'incidents, ce qui allège la charge administrative des analystes. Elle peut automatiser la collecte de renseignements provenant de sources ouvertes pour les exercices, ce qui permet aux étudiants et aux professionnels de se concentrer sur l'analyse et la stratégie de haut niveau plutôt que sur des tâches répétitives.

Réponse. Favorise l'établissement rapide de rapports et la connaissance de la situation.
Récupération. Permet une documentation approfondie après l'incident et de tirer les leçons de l'expérience.

Cas mis en évidence : Collecte et communication automatisées de renseignements

En 2024, Gao et al a présenté ThreatKG, un système alimenté par l'IA qui recueille automatiquement des renseignements sur les cybermenaces à partir de sources ouvertes, extrait les entités clés telles que les acteurs et les vulnérabilités, et les organise dans un graphe de connaissances structuré. Au lieu que les analystes lisent manuellement de longs rapports non structurés, le système fournit une vue d'ensemble consolidée et consultable. Cela permet de réduire la charge administrative des opérations défensives, d'accélérer la production de rapports sur les incidents et d'améliorer la connaissance de la situation en cas de menaces actives. En transformant des informations fragmentées en informations accessibles, ThreatKG permet au personnel de consacrer plus de temps à l'interprétation et à la prise de décision. L'étude illustre comment l'IA peut remodeler le travail défensif quotidien en rendant la collecte de renseignements plus efficace et exploitable, tout en soulignant la nécessité d'une supervision pour garantir l'exactitude et la pertinence des informations.

Autres lectures

Générer des données synthétiques

La génération de données synthétiques permet de créer des ensembles de données artificielles à des fins de formation, de test ou de simulation sans exposer les informations sensibles du monde réel.

Comment l'IA modifie la production de données synthétiques :

L'IA peut produire des échantillons réalistes de trafic réseau ou de logiciels malveillants pour une utilisation en laboratoire, combler les lacunes lorsque les données réelles ne sont pas disponibles, et protéger la vie privée tout en permettant l'expérimentation. Cela aide les éducateurs et les défenseurs à se préparer à des incidents réels sans risquer d'exposer des données sensibles.

La prévention. Permet d'expérimenter en toute sécurité sans exposer d'informations sensibles.
Préparation. Permet la formation et la simulation avec des ensembles de données réalistes.
Récupération. Recréer des scénarios d'attaque afin de tester et d'améliorer la situation après l'incident.

Cas mis en évidence : Utilisation des GAN pour produire des données de formation sûres et réalistes

En 2022, Nukavarapu et al a mis au point MirageNet, un cadre qui utilise des réseaux adversaires génératifs (GAN) pour créer un trafic réseau synthétique réaliste. Le système peut reproduire des modèles de trafic DNS et d'autres protocoles d'une manière qui ressemble étroitement aux données du monde réel, mais sans exposer les informations sensibles des réseaux en direct.

Cette innovation est importante car les défenseurs et les éducateurs ont souvent besoin de données réalistes pour la formation, les tests et l'expérimentation, mais ne peuvent pas toujours utiliser le trafic opérationnel pour des raisons de confidentialité ou de sécurité. MirageNet permet des simulations sûres qui préparent les analystes à des attaques réelles tout en évitant les risques de divulgation. L'utilisation de l'IA, et dans ce cas des GAN, permet une expérimentation plus sûre et plus évolutive. Dans le même temps, il reste important de valider que les données synthétiques reflètent réellement les conditions opérationnelles réelles, afin de garantir la fiabilité de la formation et des tests.

Autres lectures

Gestion des identités et des accès (IAM)

La gestion des identités et des accès (IAM) garantit que seuls les utilisateurs autorisés ont un accès approprié aux systèmes et aux ressources.

Comment l'IA modifie la gestion des identités et des accès :

L'IA renforce l'IAM en détectant les schémas de connexion anormaux qui peuvent signaler une utilisation abusive des informations d'identification, en recommandant des politiques d'authentification adaptatives et en automatisant les contrôles de routine. En cas d'incident, elle peut rapidement signaler les comptes compromis et déclencher des contrôles renforcés pour contenir les menaces.

La prévention. Renforce l'authentification et réduit les accès non autorisés.
Réponse. S'adapte en temps réel en cas de suspicion d'utilisation abusive de la carte d'identité.

Cas mis en évidence : Détection des accès inhabituels et inappropriés

En 2024, Vente a mené une étude de validation de concept sur l'application de l'IA aux systèmes IAM. En intégrant un modèle de détection des anomalies dans une plateforme IAM en direct, le système a été en mesure de signaler les comportements de connexion inhabituels et les privilèges d'accès inappropriés. Cette approche permet aux organisations de détecter plus rapidement les comptes compromis ou les abus d'initiés et d'adapter les politiques d'authentification de manière dynamique lorsque des risques sont détectés. L'étude a mis en évidence des gains d'efficacité évidents, tout en soulignant la nécessité d'une surveillance humaine pour interpréter les anomalies signalées et éviter les perturbations inutiles. L'IA permet donc de renforcer le contrôle d'accès au quotidien et peut transformer l'IAM en une ligne de défense plus adaptative et proactive.

Autres lectures

Analyse du journal

L'analyse des journaux examine les journaux du système et de la sécurité afin de détecter, d'étudier et de comprendre les incidents.

Comment l'IA modifie l'analyse des logs :

L'IA peut traiter des volumes massifs de journaux en temps réel, mettre en évidence des séquences d'événements inhabituels et générer des résumés concis. Cela améliore la détection et permet d'accélérer l'enseignement et les simulations d'incidents.

Préparation. Établit des bases de référence et identifie les points faibles potentiels.
Réponse. Accélère les enquêtes et facilite le traitement des incidents en temps réel.
Récupération. Informer les examens et les rapports post-incidents.

Cas mis en évidence : Agents d'intelligence artificielle pour l'analyse des journaux et la découverte de modèles de menaces

En 2025, Karaarslan et al a examiné comment les agents d'intelligence artificielle pourraient faciliter l'analyse des nombreux journaux générés par les pots de miel Cowrie. Les pots de miel imitent délibérément des systèmes vulnérables pour attirer les attaquants, mais il en résulte un volume écrasant de données brutes que les analystes humains ont du mal à interpréter.

Les chercheurs ont montré que les agents d'intelligence artificielle peuvent analyser et résumer automatiquement ces journaux, en extrayant les schémas d'attaque récurrents et en générant des rapports concis. Cette automatisation réduit le travail manuel, améliore la connaissance de la situation et permet aux défenseurs de détecter les tendances et d'ajuster les mesures de sécurité plus rapidement. L'étude illustre la manière dont l'IA peut transformer des ensembles de données ingérables en renseignements exploitables, tout en soulignant la nécessité de valider soigneusement les résultats afin de ne pas se tromper dans l'interprétation des tactiques adverses évolutives ou trompeuses.

Autres lectures

Analyse des logiciels malveillants

L'analyse des logiciels malveillants permet de comprendre leur comportement, leur origine et leur impact potentiel.

Comment l'IA modifie l'analyse des logiciels malveillants :

L'IA accélère la classification en identifiant les similitudes de code entre les familles de logiciels malveillants et en générant des explications sur l'exécution en bac à sable. Elle aide les analystes à comprendre rapidement le fonctionnement des logiciels malveillants, ce qui permet une réponse plus rapide et des mesures d'atténuation plus efficaces.

Réponse. Accélère l'identification et l'endiguement des logiciels malveillants.
Récupération. Contribuer à l'acquisition de connaissances pour les défenses futures.

Cas mis en évidence : Désassemblage de logiciels malveillants assisté par l'IA

En 2025, Apvrille et Nakov a évalué R2AI, un plugin d'IA pour le désassembleur Radare2, sur des échantillons récents de logiciels malveillants Linux et IoT. Le système intègre les LLM dans le processus de rétro-ingénierie, aidant les analystes à décompiler les fonctions, à renommer les variables et à identifier les comportements suspects. Leur étude a montré que l'assistance de l'IA pouvait réduire le temps d'analyse de plusieurs jours à environ la moitié, tout en maintenant une qualité égale ou supérieure à celle d'une analyse réalisée uniquement par des humains. Par exemple, dans le cas du logiciel malveillant Linux/Devura, l'IA a correctement déduit des formats d'arguments que les analystes humains n'avaient pas détectés. Toutefois, des limites subsistent : les modèles ont parfois produit des hallucinations, des exagérations ou des omissions, et ont nécessité une validation constante par des experts qualifiés. Les résultats suggèrent que le désassemblage assisté par l'IA est plus efficace en tant que multiplicateur de force, en accélérant le triage et en découvrant des détails plus rapidement, tout en s'appuyant sur la supervision humaine pour garantir l'exactitude et éviter les erreurs d'interprétation.

Autres lectures

Formation et laboratoires

Les formations et les laboratoires offrent des environnements contrôlés pour des exercices pratiques et des simulations en matière de cybersécurité.

Comment l'IA modifie la formation et les laboratoires :

L'IA peut générer des scénarios de laboratoire dynamiques adaptés aux progrès de l'apprenant, créer des défis adaptatifs de difficulté variable et automatiser le retour d'information et l'évaluation. Cela permet une formation plus réaliste et plus évolutive.

Préparation. Renforce l'état de préparation grâce à des simulations adaptatives.
Récupération. Incorporer les leçons tirées d'incidents réels dans la formation.

Cas mis en évidence : Des champs de tir cybernétiques alimentés par l'IA pour une formation adaptative

En 2025, Sisodiya et ala présenté une cyber-gamme alimentée par l'IA, conçue pour améliorer le réalisme et l'efficacité de la formation à la cybersécurité. Contrairement aux laboratoires statiques traditionnels, la plateforme utilise l'IA pour ajuster la difficulté des scénarios en fonction des progrès de l'apprenant, injecter des événements d'attaque réalistes et fournir un retour d'information automatisé.

L'étude a montré que les étudiants formés dans cet environnement ont atteint une plus grande précision de détection et réduit les délais d'intervention par rapport aux approches conventionnelles. Pour les éducateurs, le système permet d'échelonner les exercices, de personnaliser les défis et d'intégrer dans les simulations les leçons tirées d'incidents réels.

Sur le plan technique, la recherche a également démontré que les architectures hybrides, combinant l'évolutivité de l'informatique dématérialisée et la fidélité des systèmes physiques, permettent d'obtenir des scénarios plus réalistes et plus adaptables. Les résultats mettent en évidence la manière dont l'IA peut transformer la formation d'exercices fixes en environnements d'apprentissage dynamiques qui préparent mieux les étudiants et les professionnels aux cybermenaces réelles.

Autres lectures

Questions de discussion

Bibliographie

Alzu'bi, Ahmad, Omar Darwish, Amjad Albashayreh et Yahya Tashtoush. Cyberattack Event Logs Classification Using Deep Learning with Semantic Feature Analysis" (Classification des journaux d'événements de cyberattaques à l'aide de l'apprentissage profond et de l'analyse sémantique). Ordinateurs et sécurité 150 (mars 2025) : 104222. https://doi.org/10.1016/j.cose.2024.104222. 

Ammara, Dure Adan, Jianguo Ding, et Kurt Tutschku. Synthetic Network Traffic Data Generation : A Comparative Study'. arXiv:2410.16326. Version 2. Preprint, arXiv, 22 février 2025. https://doi.org/10.48550/arXiv.2410.16326. 

Balasubramanian, Prasasthy, Justin Seby, et Panos Kostakos. CYGENT : A Cybersecurity Conversational Agent with Log Summarization Powered by GPT-3'. arXiv:2403.17160. Preprint, arXiv, 25 mars 2024. https://doi.org/10.48550/arXiv.2403.17160. 

Coppolino, Luigi, Antonio Iannaccone, Roberto Nardone et Alfredo Petruolo. Asset Discovery in Critical Infrastructures : An LLM-Based Approach". Électronique 14, no. 16 (2025) : 3267. https://doi.org/10.3390/electronics14163267. 

Gao, Peng, Xiaoyuan Liu, Edward Choi, Sibo Ma, Xinyu Yang et Dawn Song. ThreatKG : An AI-Powered System for Automated Open-Source Cyber Threat Intelligence Gathering and Management". arXiv:2212.10388. Preprint, arXiv, 30 octobre 2024. https://doi.org/10.48550/arXiv.2212.10388. 

Geiger, Alexander, Dongyu Liu, Sarah Alnegheimish, Alfredo Cuesta-Infante, et Kalyan Veeramachaneni. TadGAN : Time Series Anomaly Detection Using Generative Adversarial Networks'. arXiv:2009.07769. Preprint, arXiv, 14 novembre 2020. https://doi.org/10.48550/arXiv.2009.07769. 

Ghioni, Riccardo, Mariarosaria Taddeo et Luciano Floridi. Open Source Intelligence and AI : A Systematic Review of the GELSI Literature". Ai & Société, 28 janvier 2023, 1-16. https://doi.org/10.1007/s00146-023-01628-x. 

Humran, Hael Abdulhakim Ali, et Ferdi Sonmez. Code Vulnerability Detection Across Different Programming Languages with AI Models". arXiv:2508.11710. Preprint, arXiv, 14 août 2025. https://doi.org/10.48550/arXiv.2508.11710. 

Karaarslan, Enis, Esin Güler, Efe Emir Yüce, et Cagatay Coban. Towards Log Analysis with AI Agents : Cowrie Case Study'. arXiv:2509.05306. Preprint, arXiv, 22 août 2025. https://doi.org/10.48550/arXiv.2509.05306. 

Nebebe, Betelhem, Pavlina Kröckel, Romarick Yatagha, Natasha Edeh, et Karl Waedt. AI Defenders : Machine Learning Driven Anomaly Detection in Critical Infrastructures". Gesellschaft für Informatik e.V., 2024, 1917-27. https://dl.gi.de/handle/20.500.12116/45143. 

Nukavarapu, Santosh Kumar, Mohammed Ayyat et Tamer Nadeem. MirageNet - Towards a GAN-Based Framework for Synthetic Network Traffic Generation". GLOBECOM 2022 - 2022 Conférence mondiale des communications de l'IEEEIEEE, 4 décembre 2022, 3089-95. https://doi.org/10.1109/GLOBECOM48099.2022.10001494. 

Nwoye, Chukwujekwu Charles, et Stephen Nwagwughiagwu. AI-Driven Anomaly Detection for Proactive Cybersecurity and Data Breach Prevention". International Journal of Engineering Technology Research & Management (Journal international de la recherche et de la gestion des technologies de l'ingénierie) 8, no. 11 (2024) : 339-56. 

Ogundairo, Obaloluwa et Peter Broklyn. Traitement du langage naturel pour l'analyse des incidents de cybersécurité. 2024. 

Peng, Wei, Junmei Ding, Wei Wang, et al. 'CTISum : A New Benchmark Dataset For Cyber Threat Intelligence Summarization'. arXiv:2408.06576. Preprint, arXiv, 30 juin 2025. https://doi.org/10.48550/arXiv.2408.06576. 

Perrina, Filippo, Francesco Marchiori, Mauro Conti, et Nino Vincenzo Verde. AGIR : Automating Cyber Threat Intelligence Reporting with Natural Language Generation". arXiv:2310.02655. Preprint, arXiv, 4 octobre 2023. https://doi.org/10.48550/arXiv.2310.02655. 

Petrolini, Michael, Stefano Cagnoni et Monica Mordonini. Détection automatique de données sensibles à l'aide de classificateurs basés sur des transformateurs". Internet du futur 14, no. 8 (2022) : 228. https://doi.org/10.3390/fi14080228. 

Rani, Nanda, Bikash Saha, Vikas Maurya et Sandeep Kumar Shukla. TTPXHunter : Actionable Threat Intelligence Extraction as TTPs from Finished Cyber Threat Reports". Menaces numériques : Recherche et pratique 5, no. 4 (2024) : 1–19. https://doi.org/10.1145/3696427. 

Rodriguez, David, Sarah Lee, Joshua Wilson et Sadis Bello. Audit IAM alimenté par l'IA pour la détection d'anomalies dans les infrastructures critiques. 18 avril 2025. 

Selling, Felix. Advancing Identity and Access Management with Artificial Intelligence for Anomaly Detection : A Proof of Concept Implementation Study". 2024. 

Xu, Shengzhe, Manish Marwah, Martin Arlitt, et Naren Ramakrishnan. STAN : Synthetic Network Traffic Generation with Generative Neural Models'. arXiv:2009.12740. Preprint, arXiv, 3 août 2021. https://doi.org/10.48550/arXiv.2009.12740. 

Yang, Ziqi, et Zhenkai Liang. Automated Identification of Sensitive Data from Implicit User Specification" (Identification automatisée des données sensibles à partir des spécifications implicites de l'utilisateur). Cybersécurité 1, n° 1 (2018) : 13. https://doi.org/10.1186/s42400-018-0011-x.

Merci de vous être inscrit à notre lettre d'information !

Merci d'avoir répondu à l'appel ! RSVP reçu pour l'IA dans la cyberdéfense

L'IA dans la cyberdéfense

Chargement...

Chargement...