AI en Ciberdelincuencia

Cómo AI cambia la Cyber Kill Chain

Las ciberoperaciones ofensivas son acciones deliberadas llevadas a cabo en el ciberespacio para infiltrarse, perturbar o destruir los sistemas del adversario en pos de objetivos estratégicos. Suelen enmarcarse en la Cibercadena asesinaun marco desarrollado originalmente por Lockheed Martin. El marco desglosa un ataque en una secuencia estructurada de fases, trazando la progresión de un adversario desde el reconocimiento inicial hasta las acciones finales llevadas a cabo para alcanzar los objetivos (por ejemplo, exfiltración de datos o destrucción de datos).

2

2

Armatización

Acoplamiento del exploit con el backdoor en la carga útil entregable

Entrega

Entrega de un paquete armado a la víctima por correo electrónico, web, USB, etc.

3

3

4

4

Explotación

Aprovechamiento de una vulnerabilidad para ejecutar código en el sistema de la víctima

Instalación

Instalación de malware en el activo

5

5

6

6

Mando y control (C2)

Canal de mando para la manipulación a distancia de la víctima

Acciones sobre los objetivos

Con el acceso "Manos en el teclado", los intrusos logran sus objetivos originales

7

7

En los últimos años, las operaciones cibernéticas ofensivas se han intensificado tanto en volumen como en complejidad. Los ciberataques mundiales no sólo están aumentando considerablemente, sino que también se están diversificando en cuanto a su tipoen 2022, 27% de los ciberataques mundiales se basaron en la extorsión, 21% en puertas traseras y 17% en ransomware.. La inteligencia artificial (AI) está desempeñando un papel fundamental en esta escalada y diversificación, posibilitando nuevas formas de ataque como los deepfakes o el malware de enjambre, al tiempo que refuerza vectores tradicionales como el phishing o la explotación de vulnerabilidades. Según la Encuesta mundial de directores financierosUn 85% de los profesionales de la ciberseguridad atribuyen el aumento de los ataques a la militarización de la AI generativa. En Bengaluru, India, un informe estatal confirmó esta tendencia: a principios de 2025, 80% de los correos electrónicos de phishing fueron generados por AI.

AI está transformando la propia Cyber Kill Chain, y tiene la potencial para potenciar todas las fases de las cibercampañas ofensivas. La velocidad y la escala a las que el AI reconfigura esta cadena se han convertido en una acuciante preocupación para la seguridad nacional.

Este kit de herramientas se centra específicamente en AI como facilitador de ataques, explorando cómo transforma las diferentes etapas de la Cyber Kill Chain.

Reconocimiento

El atacante recopila información sobre el objetivo, como datos de los empleados, correos electrónicos o datos del sistema, para planificar su ataque.

Cómo AI cambia el reconocimiento:

AI automatiza y acelera la recopilación de inteligencia de fuentes abiertas procesando grandes volúmenes de datos públicos (redes sociales, sitios corporativos, registros filtrados) y extrayendo artefactos estructurados como subdominios, probables rangos de IP y perfiles de empleados. También reduce la barrera de habilidad para la ingeniería social dirigida mediante la producción de perfiles de víctimas concisos adecuados para el spear-phishing.
Alcance del impacto: Alto. La OSINT automatizada reduce sustancialmente el tiempo y los conocimientos necesarios.

Caso destacado: ChatGPT como asistente de reconocimiento

En 2024, la investigadora en ciberseguridad Sheetal Tamara ha publicado un artículo en el que demuestra cómo los grandes modelos lingüísticos como ChatGPT pueden acelerar enormemente la fase de reconocimiento de un ataque. En lugar de pasar horas escribiendo secuencias de comandos y recopilando manualmente información de fuentes abiertas, el investigador utilizó una breve serie de preguntas conversacionales, por ejemplo: "Enumera todos los subdominios que puedes encontrar para examplecompany.com", "Resume la topología de red de la empresa basándote en la información disponible públicamente" e "Identifica qué sistemas operativos y servicios es más probable que se estén ejecutando en estos servidores".

En cuestión de minutos, el modelo produjo material de reconocimiento útil, incluido:

  • una lista de dominios y subdominios asociados a la empresa objetivo
  • posibles rangos de direcciones IP
  • notas sobre configuraciones SSL/TLS, posibles puertos abiertos y servicios comunes
  • información pública sobre empleados (de LinkedIn y comunicados de prensa) que podría utilizarse para el spear-phishing.

Mientras que la recopilación de OSINT requeriría normalmente horas o días de trabajo manual, el experimento redujo la tarea a un flujo de trabajo conversacional que exigía muchos menos conocimientos técnicos. Por tanto, el estudio subraya cómo los modelos generativos pueden reducir la barrera del reconocimiento automatizado, con claras implicaciones para la práctica defensiva y la modelización de amenazas.

Otras lecturas

Armatización

El atacante utiliza la información descubierta durante el reconocimiento para construir o personalizar una carga maliciosa (por ejemplo, malware o exploits) y explotar las debilidades del objetivo.

Cómo AI cambia el armamento:

AI agiliza la creación y puesta a punto de cargas útiles maliciosas mediante la generación o modificación de código y la comprobación de variantes con modelos de detección. Esto puede producir cargas útiles más discretas, adaptables y selectivas, incluidas variantes polimórficas que alteran su apariencia con cada ejecución. Las pruebas de adversarios pueden utilizarse para perfeccionar las cargas útiles antes de su despliegue.

Alcance del impacto: Alto. La automatización acelera y amplía el desarrollo de cargas útiles.

Caso destacado: AI-generated malware dropper in the wild

En 2024, analistas de ciberseguridad identificó una campaña de phishing que inicialmente parecía rutinaria: una serie de correos electrónicos que distribuían una carga útil de malware convencional. Sin embargo, una inspección más detallada del dropper (es decir, el pequeño programa responsable de instalar y activar el malware principal) reveló una característica inusual.

La estructura y la sintaxis del dropper indicaban que había sido generado por un gran modelo de lenguaje y no por un programador humano. Aunque funcionaba como un simple envoltorio, el dropper producido por AI era a la vez pulido y eficaz, demostrando su capacidad para eludir los métodos de detección tradicionales. Sorteaba con éxito las firmas antivirus básicas y distribuía el malware tal y como estaba previsto.

Se trata de uno de los primeros casos confirmados de despliegue de código malicioso generado por AI. Aunque el malware subyacente no era nuevo, la externalización de parte del proceso de armamento a AI supuso un avance significativo. Demostró cómo los atacantes podían ampliar sus operaciones, reducir los costes de desarrollo y adaptarse más rápidamente, complicando al mismo tiempo los esfuerzos de detección y respuesta.

Otras lecturas

Entrega

El atacante lanza el ataque transmitiendo la carga maliciosa al objetivo, a menudo a través de correos electrónicos de phishing, sitios web falsos o redes inseguras.

Cómo AI cambia la entrega:

AI adapta y sincroniza los mecanismos de entrega para maximizar el éxito. Automatiza la generación de contenidos de phishing convincentes, deepfakes en tiempo real, interacciones de chat adaptables y páginas web fraudulentas realistas, y utiliza datos de reconocimiento para elegir el momento y el canal óptimos para la entrega. De este modo, se reduce la necesidad de intervención humana en la ejecución de las campañas.

Alcance del impacto: alto. AI aumenta notablemente la persuasión y la automatización de la entrega.

Caso destacado: Estafa del CEO de Deepfake en Arup

En 2024, el personal de la La empresa británica de ingeniería Arup recibió lo que parecía ser una videollamada legítima de su Consejero Delegado regional. El ejecutivo solicitaba urgentemente la transferencia de fondos en relación con una transacción confidencial. La persona que aparecía en pantalla reproducía con notable exactitud el aspecto, la voz y los gestos del consejero delegado.

En realidad, el interlocutor no era el ejecutivo, sino un deepfake generado a través de AI, diseñado para imitarle en tiempo real. Convencidos de la autenticidad de la interacción, los empleados autorizaron una secuencia de transferencias por valor de casi 25 millones de dólares estadounidenses.

Este incidente es uno de los mayores casos registrados de ingeniería social basada en AI durante la fase de entrega de un ciberataque. Ilustra que el phishing ya no tiene por qué depender de correos electrónicos mal redactados o enlaces dudosos. En su lugar, AI permite ahora el despliegue de suplantaciones de audio y vídeo muy realistas que eluden no sólo los controles técnicos, sino también el juicio y la confianza humanos.

Otras lecturas

Explotación

El atacante activa la carga útil para explotar una vulnerabilidad y obtener acceso no autorizado al sistema objetivo. Tras infiltrarse en la organización, el atacante utiliza este acceso para moverse lateralmente entre los sistemas y encontrar información relevante (por ejemplo, datos sensibles, vulnerabilidades adicionales, servidores de correo electrónico, etc.) y perjudicar a la organización.

Cómo AI cambia la explotación:

AI ayuda a los atacantes a identificar, comprender y explotar los puntos débiles del sistema automatizando el descubrimiento de vulnerabilidades (por ejemplo, fuzzing inteligente y exploración guiada), construyendo árboles de ataque y proponiendo rutas de explotación. También puede generar entradas adversas que burlen las herramientas de seguridad o exploten las defensas.

Alcance del impacto: Media. AI mejora la velocidad y la eficacia de la detección, especialmente en sistemas complejos.

Caso destacado: El gusano Morris II AI

En 2024, investigadores demostró una nueva forma de gusano autopropagador que no se basaba en la explotación de vulnerabilidades de software convencionales. Su objetivo eran los propios sistemas generativos AI.

Nombre Morris II En referencia al célebre gusano Morris de 1988, este ataque de prueba de concepto empleaba instrucciones adversas para manipular modelos AI con el fin de que reprodujeran y distribuyeran instrucciones maliciosas. Una vez "infectado" un sistema, el gusano podía generar de forma autónoma nuevas instrucciones que inducían al AI a reproducir el ataque y transmitirlo a otros modelos.

A diferencia de los gusanos tradicionales, que suelen aprovecharse de código sin parchear, Morris II explotando el carácter abierto e impredecible del comportamiento AI generativo. La demostración puso de relieve que, a medida que las organizaciones integran cada vez más la AI generativa en los flujos de trabajo operativos, pueden exponer nuevas superficies de ataque en las que la vulnerabilidad no reside en el código fuente, sino en los datos de entrenamiento y las respuestas de los modelos.

Otras lecturas

Instalación

El atacante instala malware o puertas traseras para mantener un acceso y control persistentes (ocultos) dentro del sistema objetivo.

Cómo AI cambia la instalación:

AI puede producir técnicas de persistencia adaptables y sugerir los vectores de instalación más eficaces mediante el análisis de los datos de etapas anteriores, pero la automatización completa de la fase de instalación, llena de matices y de decisiones, sigue siendo limitada. Cuando se aplica, AI permite al malware modificar su comportamiento para evitar ser detectado y seleccionar el momento y los puntos de entrada óptimos.

Alcance del impacto: Media. AI mejora la persistencia y el sigilo, pero la automatización total sigue siendo limitada porque la instalación exige decisiones contextuales.

Caso destacado: El ransomware que aprende a esconderse

En 2024, investigadores introdujo un sistema conocido como EGAN, un modelo AI desarrollado para explorar cómo el ransomware podría emplear estrategias de aprendizaje para eludir la detección. A diferencia del malware estático tradicional, que se identifica o se pasa por alto, EGAN a través de la experimentación iterativa.

El sistema modificó repetidamente el código del ransomware, probando sucesivas variantes hasta producir una que podía eludir las defensas antivirus conservando toda su funcionalidad. En efecto, el malware "aprendió" a eludir los mecanismos de detección basados en anomalías que normalmente son eficaces para identificar comportamientos sospechosos.

Aunque creado en un entorno de investigación, EGAN demostró cómo los mecanismos de persistencia basados en AI podían hacer que el ransomware fuera mucho más difícil de detectar y erradicar una vez desplegado. En lugar de depender de técnicas de evasión predefinidas, el malware se adaptaba dinámicamente, lo que planteaba la perspectiva de un software malicioso casi "imposible de matar".

Otras lecturas

Mando y control

Tras hacerse con el control de varios sistemas, el atacante crea un centro de control para explotarlos de forma remota. El atacante establece comunicación remota con el sistema comprometido, a través de diferentes canales (por ejemplo, web, DNS o correo electrónico) para controlar las operaciones y evadir la detección. El atacante utiliza diferentes técnicas como la ofuscación para cubrir sus huellas y evitar la detección, o ataques de denegación de servicio (DoS) para distraer a los profesionales de la seguridad de sus verdaderos objetivos.

Cómo AI cambia el mando y control (C2):

AI permite comunicaciones C2 más encubiertas generando tráfico que imita la actividad legítima, diseñando algoritmos de generación de dominios evasivos y orquestando redes de bots descentralizadas y adaptables. También puede ajustar el comportamiento C2 para eludir los detectores de anomalías.

Alcance del impacto: Media. AI aumenta la sofisticación y la resistencia del C2, pero las restricciones operativas limitan su adopción generalizada.

Caso destacado: Redes de bots coordinadas por AI, enjambres con mente propia

En 2023, investigadores ha demostrado una nueva forma de red de bots impulsada por AI. Las redes de bots convencionales suelen basarse en un servidor central de mando y control (C2) a través del cual un único núcleo emite instrucciones que las máquinas comprometidas, o "bots", ejecutan a continuación. Esta arquitectura, sin embargo, a menudo puede desbaratarse una vez que los defensores identifican y desactivan el servidor central.

La red de bots AI adoptó un modelo diferente. Cada nodo de la red empleaba el aprendizaje por refuerzo para determinar de forma autónoma cuándo iniciar los ataques, qué objetivos perseguir y cómo adaptar las tácticas en respuesta a las medidas defensivas. En lugar de esperar instrucciones centralizadas, los bots colaboraban de forma descentralizada, funcionando como una especie de colmena autoorganizada.

Este diseño hizo que la red de bots fuera más resistente y más difícil de detectar. Incluso si se neutralizaban algunos nodos, el resto podía adaptarse y seguir funcionando. Para los defensores, la tarea ya no se limitaba a interrumpir un único servidor, sino que era necesario contrarrestar un enjambre distribuido y adaptable de máquinas comprometidas.

Otras lecturas

Acción sobre los objetivos

El atacante ejecuta su objetivo final, como la exfiltración de datos, el cifrado de datos o la destrucción de datos.

Cómo AI cambia la acción sobre los objetivos:

AI acelera y perfecciona las tareas finales de un ataque: exfiltración automatizada de datos, priorización de activos de alto valor, mensajes de extorsión a medida y generación de contenidos a gran escala para desinformar o perturbar. Las decisiones estratégicas finales a menudo siguen requiriendo el juicio humano, pero AI acorta el camino hacia esas decisiones.

Alcance del impacto: Media. AI agiliza y escala la actividad orientada a objetivos, pero no sustituye totalmente la intención humana.

Caso destacado: PromptLocker, una orquestación de ransomware impulsada por AI

En 2024, investigadores de la Universidad de Nueva York presentaron PromptLockerun sistema de prueba de concepto de ransomware controlado por un gran modelo lingüístico. A diferencia del ransomware convencional, que sigue comportamientos predefinidos, PromptLocker tomó decisiones en tiempo real y automatizó múltiples etapas del ciclo de vida del ataque. En la demostración, el modelo funcionó de forma autónoma:

  • seleccionado los objetivos más valiosos dentro de un sistema comprometido,
  • exfiltraron datos confidenciales antes del cifrado, aumentando la ventaja sobre las víctimas,
  • volúmenes y archivos encriptados para denegar el acceso
  • generaba notas de rescate a medida, ajustando el tono y las exigencias al perfil de la víctima (por ejemplo, capacidad financiera y sector).

Aunque el trabajo se llevó a cabo en un entorno de investigación controlado, PromptLocker ilustra cómo la AI generativa puede automatizar y escalar tareas que antes requerían planificación humana, acelerando así la capacidad de los atacantes para lograr sus objetivos y adaptarse a circunstancias cambiantes.

Otras lecturas

Preguntas para el debate

Bibliografía

A Pro-Russia Disinformation Campaign Is Using Free AI Tools to Fuel a "Content Explosion" | WIRED'. Consultado el 19 de septiembre de 2025. https://www.wired.com/story/pro-russia-disinformation-campaign-free-ai-tools/. 

AI-Powered PromptLocker Ransomware Is Just an NYU Research Project - the Code Worked as a Typical Ransomware, Selecting Targets, Exfiltrating Selected Data and Encrypting Volumes | Tom's Hardware". Consultado el 19 de septiembre de 2025. https://www.tomshardware.com/tech-industry/cyber-security/ai-powered-promptlocker-ransomware-is-just-an-nyu-research-project-the-code-worked-as-a-typical-ransomware-selecting-targets-exfiltrating-selected-data-and-encrypting-volumes. 

Al-Karaki, Jamal, Muhammad Al-Zafar Khan y Marwan Omar. Exploring LLMs for Malware Detection: Review, Framework Design, and Countermeasure Approaches'. arXiv:2409.07587. Versión 1. Preprint, arXiv, 11 de septiembre de 2024. https://doi.org/10.48550/arXiv.2409.07587. 

Anderson, Hyrum S., Anant Kharkar, Bobby Filar, David Evans y Phil Roth. 'Learning to Evade Static PE Machine Learning Malware Models via Reinforcement Learning'. arXiv:1801.08917. Preprint, arXiv, 30 de enero de 2018. https://doi.org/10.48550/arXiv.1801.08917. 

Anis, Fatima, y Mohammad Hammoudeh. Weaponizing AI in Cyberattacks A Comparative Study of AI Powered Tools for Offensive Security'. Actas de la 8ª Conferencia Internacional sobre Redes y Sistemas Distribuidos del FuturoACM, 11 de diciembre de 2024, 283-90. https://doi.org/10.1145/3726122.3726164. 

Buchanan, Ben. A National Security Research Agenda for Cybersecurity and Artificial Intelligence". Centro de Seguridad y Tecnologías Emergentes, 2020. https://cset.georgetown.edu/publication/a-national-security-research-agenda-for-cybersecurity-and-artificial-intelligence/. 

Cohen, Stav, Ron Bitton y Ben Nassi. Llega el gusano AI: Unleashing Zero-Click Worms That Target GenAI-Powered Applications'. arXiv:2403.02817. Versión 1. Preprint, arXiv, 5 de marzo de 2024. https://doi.org/10.48550/arXiv.2403.02817. 

Commey, Daniel, Benjamin Appiah, Bill K. Frimpong, Isaac Osei, Ebenezer N. A. Hammond y Garth V. Crosby. EGAN: Evolutional GAN for Ransomware Evasion". 2023 48ª Conferencia del IEEE sobre redes informáticas locales (LCN), 2 de octubre de 2023, 1-9. https://doi.org/10.1109/LCN58197.2023.10223320. 

Cyber Kill Chain® | Lockheed Martin'. Consultado el 19 de septiembre de 2025. https://www.lockheedmartin.com/en-us/capabilities/cyber/cyber-kill-chain.html. 

Ciberamenazas en la UE: Hechos y cifras - Consilium". Consultado el 22 de septiembre de 2025. https://www.consilium.europa.eu/en/policies/top-cyber-threats/. 

Deepfake Fraudsters impersonate FTSE Chief Executives". Consultado el 19 de septiembre de 2025. https://www.thetimes.com/business-money/technology/article/deepfake-fraudsters-impersonate-ftse-chief-executives-z9vvnz93l. 

Hack The Box. 5 técnicas antiforenses para engañar a los investigadores (+ ejemplos y consejos de detección)". Consultado el 19 de septiembre de 2025. https://www.hackthebox.com/blog/anti-forensics-techniques. 

Hackers Are Using AI to Dissect Threat Intelligence Reports and "Vibe Code" Malware | IT Pro'. Consultado el 19 de septiembre de 2025. https://www.itpro.com/security/hackers-are-using-ai-to-dissect-threat-intelligence-reports-and-vibe-code-malware. 

Hoover, Amanda. The Clever New Scam Your Bank Can't Stop'. Business Insider. Consultado el 19 de septiembre de 2025. https://www.businessinsider.com/bank-account-scam-deepfakes-ai-voice-generator-crime-fraud-2025-5. 

Huynh, Nam, y Beiyu Lin. Large Language Models for Code Generation: A Comprehensive Survey of Challenges, Techniques, Evaluation, and Applications'. arXiv:2503.01245. Preprint, arXiv, 2 de abril de 2025. https://doi.org/10.48550/arXiv.2503.01245. 

Índice de inteligencia sobre amenazas IBM Security X-Force 2023. s.f. 

Kolosnjaji, Bojan, Ambra Demontis, Battista Biggio, et al. 'Adversarial Malware Binaries: Evading Deep Learning for Malware Detection in Executables'. arXiv:1803.04173. Preprint, arXiv, 12 de marzo de 2018. https://doi.org/10.48550/arXiv.1803.04173. 

Li, Haoyuan, Hao Jiang, Tao Jin, et al. 'DATE: Domain Adaptive Product Seeker for E-Commerce'. arXiv:2304.03669. Preprint, arXiv, 7 de abril de 2023. https://doi.org/10.48550/arXiv.2304.03669. 

Mirsky, Yisroel, Ambra Demontis, Jaidip Kotak, et al. 'The Threat of Offensive AI to Organizations'. Informática y seguridad 124 (enero de 2023): 103006. https://doi.org/10.1016/j.cose.2022.103006. 

Piplai, Aritran, Sai Sree Laya Chukkapalli y Anupam Joshi. ¡NAttack! Adversarial Attacks to Bypass a GAN Based Classifier Trained to Detect Network Intrusion'. 2020 IEEE 6th Intl Conference on Big Data Security on Cloud (BigDataSecurity), IEEE Intl Conference on High Performance and Smart Computing, (HPSC) and IEEE Intl Conference on Intelligent Data and Security (IDS), mayo de 2020, 49-54. https://doi.org/10.1109/BigDataSecurity-HPSC-IDS49724.2020.00020. 

Malware polimórfico AI: A Real-World POC and Detection Walkthrough - CardinalOps". Consultado el 19 de septiembre de 2025. https://cardinalops.com/blog/polymorphic-ai-malware-detection/. 

Rid, Thomas. Las mentiras que Rusia se cuenta a sí misma'. Asuntos Exteriores, 30 de septiembre de 2024. https://www.foreignaffairs.com/united-states/lies-russia-tells-itself. 

Rs 938 Crore Lost to Cybercrooks since Jan | Bengaluru News - Times of India'. Consultado el 22 de septiembre de 2025. https://timesofindia.indiatimes.com/city/bengaluru/rs-938-crore-lost-to-cybercrooks-since-jan/articleshow/122075324.cms. 

Schröer, Saskia Laura, Luca Pajola, Alberto Castagnaro, Giovanni Apruzzese y Mauro Conti. Exploiting AI for Attacks: On the Interplay between Adversarial AI and Offensive AI'. arXiv:2506.12519. Versión 1. Preprint, arXiv, 14 de junio de 2025. https://doi.org/10.48550/arXiv.2506.12519. 

Sewak, Mohit, Sanjay K. Sahay y Hemant Rathore. ADVERSARIALuscator: An Adversarial-DRL Based Obfuscator and Metamorphic Malware SwarmGenerator'. 2021 Conferencia Internacional Conjunta sobre Redes Neuronales (IJCNN), 18 de julio de 2021, 1-9. https://doi.org/10.1109/IJCNN52387.2021.9534016. 

Temara, Sheetal. Maximizing Penetration Testing Success with Effective Reconnaissance Techniques Using ChatGPT'. arXiv:2307.06391. Preprint, arXiv, 20 de marzo de 2023. https://doi.org/10.48550/arXiv.2307.06391. 

Townsend, Kevin. AI-Generated Malware Found in the Wild'. SecurityWeek, 24 de septiembre de 2024. https://www.securityweek.com/ai-generated-malware-found-in-the-wild/. 

Yamin, Muhammad Mudassar, Mohib Ullah, Habib Ullah y Basel Katt. Weaponized AI for Cyber Attacks'. Revista de Seguridad de la Información y Aplicaciones 57 (marzo de 2021): 102722. https://doi.org/10.1016/j.jisa.2020.102722. 

Yang, Kai-Cheng, Danishjeet Singh y Filippo Menczer. Characteristics and Prevalence of Fake Social Media Profiles with AI-Generated Faces'. Revista de confianza y seguridad en línea 2, no. 4 (2024). https://doi.org/10.54501/jots.v2i4.197. 

Yu, Jingru, Yi Yu, Xuhong Wang, et al. 'La sombra del fraude: The Emerging Danger of AI-Powered Social Engineering and Its Possible Cure'. arXiv:2407.15912. Preprint, arXiv, 22 de julio de 2024. https://doi.org/10.48550/arXiv.2407.15912. 

Gracias por suscribirse a nuestro boletín.

Gracias RSVP recibido para AI en ciberdelincuencia

AI en ciberdelincuencia

Cargando...

Cargando...