AI en Ciberdelincuencia
Cómo AI cambia la Cyber Kill Chain
Las ciberoperaciones ofensivas son acciones deliberadas llevadas a cabo en el ciberespacio para infiltrarse, perturbar o destruir los sistemas del adversario en pos de objetivos estratégicos. Suelen enmarcarse en la Cibercadena asesinaun marco desarrollado originalmente por Lockheed Martin. El marco desglosa un ataque en una secuencia estructurada de fases, trazando la progresión de un adversario desde el reconocimiento inicial hasta las acciones finales llevadas a cabo para alcanzar los objetivos (por ejemplo, exfiltración de datos o destrucción de datos).
1
Reconocimiento
Recogida de direcciones de correo electrónico, información sobre conferencias, etc.
1
2
2
Armatización
Acoplamiento del exploit con el backdoor en la carga útil entregable
Entrega
Entrega de un paquete armado a la víctima por correo electrónico, web, USB, etc.
3
3
4
4
Explotación
Aprovechamiento de una vulnerabilidad para ejecutar código en el sistema de la víctima
Instalación
Instalación de malware en el activo
5
5
6
6
Mando y control (C2)
Canal de mando para la manipulación a distancia de la víctima
Acciones sobre los objetivos
Con el acceso "Manos en el teclado", los intrusos logran sus objetivos originales
7
7
En los últimos años, las operaciones cibernéticas ofensivas se han intensificado tanto en volumen como en complejidad. Los ciberataques mundiales no sólo están aumentando considerablemente, sino que también se están diversificando en cuanto a su tipoen 2022, 27% de los ciberataques mundiales se basaron en la extorsión, 21% en puertas traseras y 17% en ransomware.. La inteligencia artificial (AI) está desempeñando un papel fundamental en esta escalada y diversificación, posibilitando nuevas formas de ataque como los deepfakes o el malware de enjambre, al tiempo que refuerza vectores tradicionales como el phishing o la explotación de vulnerabilidades. Según la Encuesta mundial de directores financierosUn 85% de los profesionales de la ciberseguridad atribuyen el aumento de los ataques a la militarización de la AI generativa. En Bengaluru, India, un informe estatal confirmó esta tendencia: a principios de 2025, 80% de los correos electrónicos de phishing fueron generados por AI.
AI está transformando la propia Cyber Kill Chain, y tiene la potencial para potenciar todas las fases de las cibercampañas ofensivas. La velocidad y la escala a las que el AI reconfigura esta cadena se han convertido en una acuciante preocupación para la seguridad nacional.
Este kit de herramientas se centra específicamente en AI como facilitador de ataques, explorando cómo transforma las diferentes etapas de la Cyber Kill Chain.
Reconocimiento
El atacante recopila información sobre el objetivo, como datos de los empleados, correos electrónicos o datos del sistema, para planificar su ataque.
Cómo AI cambia el reconocimiento:
Caso destacado: ChatGPT como asistente de reconocimiento
En 2024, la investigadora en ciberseguridad Sheetal Tamara ha publicado un artículo en el que demuestra cómo los grandes modelos lingüísticos como ChatGPT pueden acelerar enormemente la fase de reconocimiento de un ataque. En lugar de pasar horas escribiendo secuencias de comandos y recopilando manualmente información de fuentes abiertas, el investigador utilizó una breve serie de preguntas conversacionales, por ejemplo: "Enumera todos los subdominios que puedes encontrar para examplecompany.com", "Resume la topología de red de la empresa basándote en la información disponible públicamente" e "Identifica qué sistemas operativos y servicios es más probable que se estén ejecutando en estos servidores".
En cuestión de minutos, el modelo produjo material de reconocimiento útil, incluido:
- una lista de dominios y subdominios asociados a la empresa objetivo
- posibles rangos de direcciones IP
- notas sobre configuraciones SSL/TLS, posibles puertos abiertos y servicios comunes
- información pública sobre empleados (de LinkedIn y comunicados de prensa) que podría utilizarse para el spear-phishing.
Mientras que la recopilación de OSINT requeriría normalmente horas o días de trabajo manual, el experimento redujo la tarea a un flujo de trabajo conversacional que exigía muchos menos conocimientos técnicos. Por tanto, el estudio subraya cómo los modelos generativos pueden reducir la barrera del reconocimiento automatizado, con claras implicaciones para la práctica defensiva y la modelización de amenazas.
-
Herramientas de exploración automatizadas - "Weaponizing AI in Cyberattacks A Comparative Study of AI powered Tools for Offensive Security" (Annis & Hamoudeh 2025)
El estudio comparativo muestra cómo las herramientas automatizadas (por ejemplo, WebCopilot, Sublist3r, RustScan+Nmap) aceleran el escaneado de redes y la enumeración de subdominios. Los resultados ponen de relieve cómo AI podría automatizar aún más tareas ofensivas como la simulación de escenarios de ataque y la adaptación dinámica a las defensas, allanando el camino para operaciones de seguridad ofensivas totalmente automatizadas. -
AI herramientas de reconocimiento - "La amenaza de la AI ofensiva para las organizaciones" (Mirsky et al. 2023)
El estudio destaca 32 herramientas ofensivas AI que utilizan el aprendizaje profundo, el aprendizaje por refuerzo y la PNL para automatizar la detección de puntos de entrada, la creación de personajes y la selección de objetivos. Estas herramientas mejoran la OSINT, permiten falsificaciones realistas para el phishing y permiten incluso a los atacantes inexpertos planificar y lanzar campañas más impactantes. -
Recopilación de información y explotación automática - "Arma AI para ciberataques" (Yamin et al. 2021)
La investigación analiza ciberataques recientes que han utilizado técnicas basadas en AI e identifica estrategias de mitigación relevantes. Destaca varias herramientas AI (por ejemplo, GyoiThon, Deep Exploit) que pueden ayudar a recopilar datos sobre el sistema, los posibles objetivos y las medidas de defensa.
Armatización
El atacante utiliza la información descubierta durante el reconocimiento para construir o personalizar una carga maliciosa (por ejemplo, malware o exploits) y explotar las debilidades del objetivo.
Cómo AI cambia el armamento:
AI agiliza la creación y puesta a punto de cargas útiles maliciosas mediante la generación o modificación de código y la comprobación de variantes con modelos de detección. Esto puede producir cargas útiles más discretas, adaptables y selectivas, incluidas variantes polimórficas que alteran su apariencia con cada ejecución. Las pruebas de adversarios pueden utilizarse para perfeccionar las cargas útiles antes de su despliegue.
Caso destacado: AI-generated malware dropper in the wild
En 2024, analistas de ciberseguridad identificó una campaña de phishing que inicialmente parecía rutinaria: una serie de correos electrónicos que distribuían una carga útil de malware convencional. Sin embargo, una inspección más detallada del dropper (es decir, el pequeño programa responsable de instalar y activar el malware principal) reveló una característica inusual.
La estructura y la sintaxis del dropper indicaban que había sido generado por un gran modelo de lenguaje y no por un programador humano. Aunque funcionaba como un simple envoltorio, el dropper producido por AI era a la vez pulido y eficaz, demostrando su capacidad para eludir los métodos de detección tradicionales. Sorteaba con éxito las firmas antivirus básicas y distribuía el malware tal y como estaba previsto.
Se trata de uno de los primeros casos confirmados de despliegue de código malicioso generado por AI. Aunque el malware subyacente no era nuevo, la externalización de parte del proceso de armamento a AI supuso un avance significativo. Demostró cómo los atacantes podían ampliar sus operaciones, reducir los costes de desarrollo y adaptarse más rápidamente, complicando al mismo tiempo los esfuerzos de detección y respuesta.
-
Malware polimórfico mejorado con AI - "Malware polimórfico AI: A Real-World POC and Detection Walkthrough" (Itkin 2025)
El artículo propone una prueba de concepto de malware polimórfico impulsado por AI que reescribe dinámicamente su código en tiempo de ejecución para eludir la detección, construido como un keylogger que genera cargas útiles ofuscadas por ejecución. -
Grandes modelos lingüísticos para la generación de código - "Grandes modelos lingüísticos para la generación de código: A Comprehensive Survey of Challenges, Techniques, Evaluation, and Applications" (Huynh & Lin 2025)
El estudio muestra cómo los LLM (por ejemplo, CodeLlama, Copilot) pueden generar automáticamente código ejecutable a partir de lenguaje natural, reduciendo la barrera para la creación de malware, el desarrollo de exploits y la adaptación de cargas útiles por parte de los atacantes. -
Nuevas técnicas de ofuscación generadas por AI - "ADVERSARIALuscator: An Adversarial-DRL Based Obfuscator and Metamorphic Malware SwarmGenerator" (Sewak et al. 2021)
El artículo presenta ADVERSARIALuscator, un AI que puede reescribir automáticamente el código del malware para crear muchas versiones y parecer diferente cada vez con el fin de evitar su detección por los sistemas de seguridad. En las pruebas realizadas, alrededor de un tercio de estas variantes fueron capaces de eludir los sistemas de seguridad avanzados. -
AI-driven "vibe-coding" malware - "Los piratas informáticos están utilizando AI para diseccionar informes de inteligencia de amenazas y malware de 'código vibrante'" (Kelly 2025)
En este artículo, investigadores de seguridad informan de que los hackers utilizan AI generativo para leer e interpretar informes de inteligencia sobre amenazas y, a continuación, producir automáticamente malware funcional. Denominada "vibe-coding", esta técnica traduce en código análisis legibles por humanos, lo que permite a los adversarios convertir rápidamente en exploits las investigaciones públicas sobre ciberseguridad.
Entrega
El atacante lanza el ataque transmitiendo la carga maliciosa al objetivo, a menudo a través de correos electrónicos de phishing, sitios web falsos o redes inseguras.
Cómo AI cambia la entrega:
AI adapta y sincroniza los mecanismos de entrega para maximizar el éxito. Automatiza la generación de contenidos de phishing convincentes, deepfakes en tiempo real, interacciones de chat adaptables y páginas web fraudulentas realistas, y utiliza datos de reconocimiento para elegir el momento y el canal óptimos para la entrega. De este modo, se reduce la necesidad de intervención humana en la ejecución de las campañas.
Caso destacado: Estafa del CEO de Deepfake en Arup
En 2024, el personal de la La empresa británica de ingeniería Arup recibió lo que parecía ser una videollamada legítima de su Consejero Delegado regional. El ejecutivo solicitaba urgentemente la transferencia de fondos en relación con una transacción confidencial. La persona que aparecía en pantalla reproducía con notable exactitud el aspecto, la voz y los gestos del consejero delegado.
En realidad, el interlocutor no era el ejecutivo, sino un deepfake generado a través de AI, diseñado para imitarle en tiempo real. Convencidos de la autenticidad de la interacción, los empleados autorizaron una secuencia de transferencias por valor de casi 25 millones de dólares estadounidenses.
Este incidente es uno de los mayores casos registrados de ingeniería social basada en AI durante la fase de entrega de un ciberataque. Ilustra que el phishing ya no tiene por qué depender de correos electrónicos mal redactados o enlaces dudosos. En su lugar, AI permite ahora el despliegue de suplantaciones de audio y vídeo muy realistas que eluden no sólo los controles técnicos, sino también el juicio y la confianza humanos.
-
LLMs para ingeniería social y phishing a escala - "Exploración de LLM para la detección de malware: Review, Framework Design, and Countermeasure Approaches" (Al-Karaki & Khan 2024)
El artículo describe cómo pueden utilizarse los LLM para automatizar contenidos de phishing, generar malware polimórfico y elaborar entradas adversas. -
Ingeniería social impulsada por AI - "La sombra del fraude: El peligro emergente de la ingeniería social potenciada por AI y su posible cura" (Yu et al. 2024)
El estudio muestra cómo los modelos de difusión y los LLM hacen que el phishing y la suplantación de identidad sean más personalizados y convincentes. Clasifica la ingeniería social basada en AI en "fases 3E" (Enlarging, Enriching, Emerging), destacando cómo los atacantes pueden ampliar las campañas, introducir nuevos vectores y explotar nuevas amenazas, haciendo más eficaz la entrega de cargas maliciosas. -
AI generada por voz fraude / phishing - "Estafé a mi banco" (Hoover 2025)
Un experimento periodístico que saca a la luz la voz deepfake generada por AI y utilizada para estafar cuentas bancarias.
Explotación
El atacante activa la carga útil para explotar una vulnerabilidad y obtener acceso no autorizado al sistema objetivo. Tras infiltrarse en la organización, el atacante utiliza este acceso para moverse lateralmente entre los sistemas y encontrar información relevante (por ejemplo, datos sensibles, vulnerabilidades adicionales, servidores de correo electrónico, etc.) y perjudicar a la organización.
Cómo AI cambia la explotación:
AI ayuda a los atacantes a identificar, comprender y explotar los puntos débiles del sistema automatizando el descubrimiento de vulnerabilidades (por ejemplo, fuzzing inteligente y exploración guiada), construyendo árboles de ataque y proponiendo rutas de explotación. También puede generar entradas adversas que burlen las herramientas de seguridad o exploten las defensas.
Caso destacado: El gusano Morris II AI
En 2024, investigadores demostró una nueva forma de gusano autopropagador que no se basaba en la explotación de vulnerabilidades de software convencionales. Su objetivo eran los propios sistemas generativos AI.
Nombre Morris II En referencia al célebre gusano Morris de 1988, este ataque de prueba de concepto empleaba instrucciones adversas para manipular modelos AI con el fin de que reprodujeran y distribuyeran instrucciones maliciosas. Una vez "infectado" un sistema, el gusano podía generar de forma autónoma nuevas instrucciones que inducían al AI a reproducir el ataque y transmitirlo a otros modelos.
A diferencia de los gusanos tradicionales, que suelen aprovecharse de código sin parchear, Morris II explotando el carácter abierto e impredecible del comportamiento AI generativo. La demostración puso de relieve que, a medida que las organizaciones integran cada vez más la AI generativa en los flujos de trabajo operativos, pueden exponer nuevas superficies de ataque en las que la vulnerabilidad no reside en el código fuente, sino en los datos de entrenamiento y las respuestas de los modelos.
-
Adversario y ofensivo AI - "Explotación de AI para ataques: On the Interplay between Adversarial AI and Offensive AI" (Shröer & Pajola 2025)
El estudio expone cómo los atacantes pueden explotar las vulnerabilidades de los sistemas AI a través de aportaciones de los adversarios, o convertir el propio AI en un arma para lanzar ataques más eficaces contra objetivos tradicionales, lo que pone de relieve el doble papel del AI como herramienta y objetivo de los ciberataques. -
Binarios de malware adversario - "Adversarial Malware Binaries: Evading Deep Learning for Malware Detection in Executables" (Kolosnjarski et al. 2018)
El estudio muestra ataques basados en gradientes que modifican menos de 1% de bytes en ejecutables conservando la funcionalidad, lo que permite eludir con éxito los detectores de malware de aprendizaje profundo entrenados en bytes brutos.
Instalación
El atacante instala malware o puertas traseras para mantener un acceso y control persistentes (ocultos) dentro del sistema objetivo.
Cómo AI cambia la instalación:
AI puede producir técnicas de persistencia adaptables y sugerir los vectores de instalación más eficaces mediante el análisis de los datos de etapas anteriores, pero la automatización completa de la fase de instalación, llena de matices y de decisiones, sigue siendo limitada. Cuando se aplica, AI permite al malware modificar su comportamiento para evitar ser detectado y seleccionar el momento y los puntos de entrada óptimos.
Caso destacado: El ransomware que aprende a esconderse
En 2024, investigadores introdujo un sistema conocido como EGAN, un modelo AI desarrollado para explorar cómo el ransomware podría emplear estrategias de aprendizaje para eludir la detección. A diferencia del malware estático tradicional, que se identifica o se pasa por alto, EGAN a través de la experimentación iterativa.
El sistema modificó repetidamente el código del ransomware, probando sucesivas variantes hasta producir una que podía eludir las defensas antivirus conservando toda su funcionalidad. En efecto, el malware "aprendió" a eludir los mecanismos de detección basados en anomalías que normalmente son eficaces para identificar comportamientos sospechosos.
Aunque creado en un entorno de investigación, EGAN demostró cómo los mecanismos de persistencia basados en AI podían hacer que el ransomware fuera mucho más difícil de detectar y erradicar una vez desplegado. En lugar de depender de técnicas de evasión predefinidas, el malware se adaptaba dinámicamente, lo que planteaba la perspectiva de un software malicioso casi "imposible de matar".
-
Evasión de malware basada en RL - "Aprender a evadir los modelos estáticos de malware de aprendizaje automático de PE a través del aprendizaje por refuerzo" (Anderson et al. 2018)
El estudio muestra cómo los agentes de aprendizaje por refuerzo pueden modificar iterativamente el malware PE de Windows con cambios que preservan la funcionalidad para eludir los detectores estáticos de malware de aprendizaje automático, lo que permite la instalación adaptativa y en caja negra de malware persistente.
Mando y control
Tras hacerse con el control de varios sistemas, el atacante crea un centro de control para explotarlos de forma remota. El atacante establece comunicación remota con el sistema comprometido, a través de diferentes canales (por ejemplo, web, DNS o correo electrónico) para controlar las operaciones y evadir la detección. El atacante utiliza diferentes técnicas como la ofuscación para cubrir sus huellas y evitar la detección, o ataques de denegación de servicio (DoS) para distraer a los profesionales de la seguridad de sus verdaderos objetivos.
Cómo AI cambia el mando y control (C2):
AI permite comunicaciones C2 más encubiertas generando tráfico que imita la actividad legítima, diseñando algoritmos de generación de dominios evasivos y orquestando redes de bots descentralizadas y adaptables. También puede ajustar el comportamiento C2 para eludir los detectores de anomalías.
Caso destacado: Redes de bots coordinadas por AI, enjambres con mente propia
En 2023, investigadores ha demostrado una nueva forma de red de bots impulsada por AI. Las redes de bots convencionales suelen basarse en un servidor central de mando y control (C2) a través del cual un único núcleo emite instrucciones que las máquinas comprometidas, o "bots", ejecutan a continuación. Esta arquitectura, sin embargo, a menudo puede desbaratarse una vez que los defensores identifican y desactivan el servidor central.
La red de bots AI adoptó un modelo diferente. Cada nodo de la red empleaba el aprendizaje por refuerzo para determinar de forma autónoma cuándo iniciar los ataques, qué objetivos perseguir y cómo adaptar las tácticas en respuesta a las medidas defensivas. En lugar de esperar instrucciones centralizadas, los bots colaboraban de forma descentralizada, funcionando como una especie de colmena autoorganizada.
Este diseño hizo que la red de bots fuera más resistente y más difícil de detectar. Incluso si se neutralizaban algunos nodos, el resto podía adaptarse y seguir funcionando. Para los defensores, la tarea ya no se limitaba a interrumpir un único servidor, sino que era necesario contrarrestar un enjambre distribuido y adaptable de máquinas comprometidas.
-
Manipulación de registros y ocultación de rastros basada en AI - "5 técnicas antiforenses para engañar a los investigadores (+ ejemplos y consejos de detección)" (CyberJunkie 2023)
Los informes de 2024-2025 describían cómo la AI podía utilizarse para borrar o alterar los registros digitales con el fin de ocultar los ataques a los investigadores, aunque todavía son raros los ejemplos reales completos. -
Eludir los sistemas de detección de intrusos en la red basados en GAN - "¡NAttack! Adversarial Attacks to bypass a GAN based classifier trained to detect Network intrusion" (Piplai et al. 2020)
El estudio muestra cómo los ataques adversarios pueden eludir con éxito los sistemas de detección de intrusos entrenados con GAN, lo que permite a los atacantes disfrazar el tráfico C2 como actividad normal de la red.
Acción sobre los objetivos
El atacante ejecuta su objetivo final, como la exfiltración de datos, el cifrado de datos o la destrucción de datos.
Cómo AI cambia la acción sobre los objetivos:
AI acelera y perfecciona las tareas finales de un ataque: exfiltración automatizada de datos, priorización de activos de alto valor, mensajes de extorsión a medida y generación de contenidos a gran escala para desinformar o perturbar. Las decisiones estratégicas finales a menudo siguen requiriendo el juicio humano, pero AI acorta el camino hacia esas decisiones.
Caso destacado: PromptLocker, una orquestación de ransomware impulsada por AI
En 2024, investigadores de la Universidad de Nueva York presentaron PromptLockerun sistema de prueba de concepto de ransomware controlado por un gran modelo lingüístico. A diferencia del ransomware convencional, que sigue comportamientos predefinidos, PromptLocker tomó decisiones en tiempo real y automatizó múltiples etapas del ciclo de vida del ataque. En la demostración, el modelo funcionó de forma autónoma:
- seleccionado los objetivos más valiosos dentro de un sistema comprometido,
- exfiltraron datos confidenciales antes del cifrado, aumentando la ventaja sobre las víctimas,
- volúmenes y archivos encriptados para denegar el acceso
- generaba notas de rescate a medida, ajustando el tono y las exigencias al perfil de la víctima (por ejemplo, capacidad financiera y sector).
Aunque el trabajo se llevó a cabo en un entorno de investigación controlado, PromptLocker ilustra cómo la AI generativa puede automatizar y escalar tareas que antes requerían planificación humana, acelerando así la capacidad de los atacantes para lograr sus objetivos y adaptarse a circunstancias cambiantes.
-
Desinformación generada por AI a escala - "Una campaña de desinformación prorrusa está utilizando herramientas AI gratuitas para impulsar una 'explosión de contenidos'" (Gilbert 2025)
El artículo explica cómo la campaña Operación Sobrecarga (2023-2025), vinculada a Rusia, utiliza herramientas AI para producir en masa imágenes, vídeos y clips de voz clonados de personajes públicos. Este material se difunde ampliamente a través de redes de bots en las redes sociales para impulsar narrativas divisivas. -
AI-fabricó perfiles sociales falsos para la amplificación - "Características y prevalencia de perfiles falsos en redes sociales con caras generadas por AI" (Yang et al. 2024)
La investigación descubrió más de 1.400 cuentas de Twitter que utilizaban imágenes de perfil generadas por AI, organizadas en redes para impulsar estafas y mensajes con carga política, con miles de cuentas de este tipo activas a diario. -
AI-creado documentos falsos y medios de comunicación (psyops) - "Las mentiras que Rusia se cuenta a sí misma Los propagandistas del país apuntan a Occidente, pero también engañan al Kremlin" (Rid 2024)
El artículo explica cómo una campaña en curso de Doppelgänger ha estado creando versiones falsificadas convincentes de sitios web de noticias legítimos y publicando artículos generados por AI para promover narrativas prorrusas en todo Occidente.
Preguntas para el debate
- ¿Qué etapa de la Cyber Kill Chain es probable que se vea más transformada por AI en el futuro, y por qué? Y en la actualidad, ¿en qué etapa ofrece AI los resultados más prometedores para los atacantes? ¿En qué fase la aplicación de AI parece menos eficaz y prometedora?
- ¿Inclina el AI la ventaja en el ciberespacio más hacia los atacantes o hacia los defensores?
- ¿El acceso generalizado a la AI igualará las condiciones para los aficionados, o potenciará sobre todo a los adversarios con más recursos?
- ¿Cómo cambia la naturaleza de los ciberataques la capacidad de AI para automatizar y acelerar la cadena de muerte cibernética?
- ¿Podría AI hacer que los ataques sean tan rápidos y adaptables que los marcos de defensa tradicionales queden obsoletos?
- ¿Quién asume la responsabilidad cuando los modelos AI se utilizan indebidamente para ciberataques: los desarrolladores, los implantadores o los atacantes?
- ¿Cómo pueden los responsables políticos regular la AI ofensiva sin ahogar la innovación en aplicaciones defensivas o civiles?
- ¿Impulsará la AI los conflictos cibernéticos hacia una guerra más autónoma, "máquina contra máquina"?
- ¿Podría el AI cambiar radicalmente el modelo de la cibercadena letal y convertirlo en algo no lineal y continuamente adaptable?