Umělá inteligence v kybernetické kriminalitě
Jak AI mění řetězec kybernetického zabíjení
Ofenzivní kybernetické operace jsou záměrné akce prováděné v kybernetickém prostoru s cílem proniknout do systémů protivníka, narušit je nebo zničit za účelem dosažení strategických cílů. Obvykle jsou formulovány prostřednictvím Cyber Kill Chain, rámec původně vyvinutý společností Lockheed Martin. Rámec rozděluje útok do strukturované posloupnosti fází a sleduje postup protivníka od počáteční rekognoskace až po konečné akce podniknuté k dosažení cílů (např. exfiltrace dat nebo jejich zničení).
2
2
Ozbrojování
Spojení exploitu s backdoorem do doručitelného užitečného zatížení
Dodávka
doručení ozbrojeného balíčku oběti prostřednictvím e-mailu, webu, USB atd.
3
3
4
4
Využívání
Zneužití zranitelnosti ke spuštění kódu v systému oběti.
Instalace
Instalace malwaru do zařízení
5
5
6
6
Velení a řízení (C2)
Příkazový kanál pro vzdálenou manipulaci s obětí
Akce k cílům
S přístupem "Hands on Keyboard" dosáhnou útočníci svých původních cílů.
7
7
V posledních letech se útočné kybernetické operace zintenzivnily co do objemu i složitosti. Globálních kybernetických útoků nejen prudce přibývá, ale také se diverzifikuje jejich typ.: v roce 2022, 27% globálních kybernetických útoků bylo založeno na vydírání, 21% zahrnovalo zadní vrátka a 17% ransomware.. Umělá inteligence (AI) hraje v této eskalaci a diverzifikaci významnou roli, protože umožňuje nové formy útoků, jako jsou deepfakes nebo swarm malware, a zároveň posiluje tradiční vektory, jako je phishing nebo zneužívání zranitelností. Podle Globální průzkum finančních ředitelů, nápadně 85% odborníků na kybernetickou bezpečnost připisuje nárůst útoků ozbrojení generativních AI. V indickém Bengalúru se státní zpráva potvrdil tento trend: na začátku roku 2025 bylo 80% phishingových e-mailů vytvořeno AI.
AI mění samotný řetězec Cyber Kill Chain, a to má potenciál k posílení všech fází útočných kybernetických kampaní.. Rychlost a rozsah, s jakým AI tento řetězec přetváří, se staly naléhavým problémem národní bezpečnosti.
Tento soubor nástrojů se zaměřuje konkrétně na AI jako nástroj umožňující útok a zkoumá, jak mění různé fáze řetězce Cyber Kill Chain.
Průzkum
Útočník shromažďuje informace o cíli, například údaje o zaměstnancích, e-maily nebo systémová data, aby mohl naplánovat svůj útok.
Jak AI mění průzkum:
Zvýrazněný případ: ChatGPT jako průzkumný asistent
V roce 2024, výzkumník v oblasti kybernetické bezpečnosti Sheetal Tamara publikoval článek, který ukazuje, jak mohou rozsáhlé jazykové modely, jako je ChatGPT, výrazně urychlit průzkumnou fázi útoku. Místo toho, aby výzkumník strávil hodiny psaním skriptů a ručním sběrem informací z otevřených zdrojů, použil například krátkou sérii konverzačních výzev: "Vyjmenujte všechny subdomény, které můžete najít pro examplecompany.com", "Shrňte topologii sítě společnosti na základě veřejně dostupných informací" a "Určete, jaké operační systémy a služby jsou s největší pravděpodobností spuštěny na těchto serverech".
Během několika minut model vytvořil užitečný průzkumný materiál, včetně:
- seznam domén a subdomén spojených s cílovou společností.
- pravděpodobné rozsahy adres IP
- poznámky ke konfiguracím SSL/TLS, potenciálním otevřeným portům a běžným službám.
- veřejné informace o zaměstnancích (z LinkedIn a tiskových zpráv), které by mohly být použity pro spear-phishing.
Tam, kde by shromažďování OSINT normálně vyžadovalo hodiny nebo dny manuální práce, experiment omezil úkol na konverzační pracovní postup, který vyžadoval mnohem méně technických znalostí. Studie proto zdůrazňuje, jak mohou generativní modely snížit bariéru automatizovaného průzkumu, což má jasné důsledky pro obrannou praxi a modelování hrozeb.
-
Automatizované skenovací nástroje - "Weaponizing AI in Cyberattacks A Comparative Study of AI powered Tools for Offensive Security" (Annis & Hamoudeh 2025)
Srovnávací studie ukazuje, jak automatizované nástroje (např. WebCopilot, Sublist3r, RustScan+Nmap) urychlují skenování sítě a výčet subdomén. Výsledky ukazují, jak by AI mohl dále automatizovat útočné úlohy, jako je simulace scénářů útoku a dynamické přizpůsobování se obraně, a připravit tak cestu pro plně automatizované útočné bezpečnostní operace. -
Nástroje AI pro průzkum - "Hrozba útočných AI pro organizace" (Mirsky et al. 2023)
Průzkum upozorňuje na 32 ofenzivních nástrojů AI využívajících hluboké učení, posilování učení a NLP k automatizaci detekce vstupních bodů, vytváření osob a výběru cílů. Tyto nástroje vylepšují OSINT, umožňují realistické deepfakes pro phishing a umožňují i nezkušeným útočníkům plánovat a spouštět údernější kampaně. -
Shromažďování informací a automatické využívání - "Zbraně AI pro kybernetické útoky" (Yamin et al. 2021)
Výzkum zkoumá nedávné kybernetické útoky, při nichž byly použity techniky založené na AI, a identifikuje příslušné strategie zmírnění. Upozorňuje na různé nástroje AI (např. GyoiThon, Deep Exploit), které mohou pomoci shromáždit údaje o systému, možných cílech a obranných opatřeních.
Ozbrojování
Útočník využívá informace zjištěné během průzkumu k vytvoření nebo přizpůsobení škodlivého nákladu (např. malwaru nebo exploitů) a zneužití slabých míst cíle.
Jak AI mění vyzbrojování:
AI zjednodušuje vytváření a ladění škodlivých zátěží generováním nebo úpravou kódu a testováním variant proti detekčním modelům. Tím lze vytvořit diskrétnější, adaptivnější a cílenější užitečné zatížení, včetně polymorfních variant, které mění svůj vzhled při každém spuštění. Adversariální testování lze použít ke zdokonalení užitečných zátěží před jejich nasazením.
Zvýrazněný případ: Dropper generovaný AI v divočině
V roce 2024, analytici kybernetické bezpečnosti identifikovala phishingovou kampaň, která se zpočátku jevila jako rutinní: série e-mailů, které distribuovaly běžný malware. Při bližším zkoumání dropperu (tj. malého programu zodpovědného za instalaci a aktivaci primárního malwaru) však byla zjištěna neobvyklá vlastnost.
Struktura a syntaxe kapátka naznačovala, že bylo vygenerováno rozsáhlým jazykovým modelem, nikoliv vytvořeno lidským programátorem. Přestože fungoval jako jednoduchý wrapper, byl dropper vytvořený AI vybroušený a účinný a prokázal schopnost vyhnout se tradičním detekčním metodám. Úspěšně obešel základní antivirové signatury a doručil malware tak, jak bylo zamýšleno.
Toto zjištění bylo pozoruhodné jako jeden z prvních potvrzených případů nasazení škodlivého kódu generovaného pomocí AI ve volné přírodě. Ačkoli základní malware nebyl nový, zadání části procesu výroby zbraní společnosti AI znamenalo významný vývoj. Ukázal, jak mohou útočníci rozšířit operace, snížit náklady na vývoj a rychleji se přizpůsobit a zároveň zkomplikovat úsilí o odhalení a reakci.
-
Polymorfní malware s kódem AI - "Polymorfní malware AI: (Itkin 2025)
V článku je navržen důkaz konceptu polymorfního malwaru s technologií AI, který za běhu dynamicky přepisuje svůj kód, aby se vyhnul detekci, a je vytvořen jako keylogger, který při každém spuštění generuje obfuskovaný payload. -
Velké jazykové modely pro generování kódu - "Velké jazykové modely pro generování kódu: Huynh & Lin 2025).
Průzkum ukazuje, jak mohou LLM (např. CodeLlama, Copilot) automaticky generovat spustitelný kód z přirozeného jazyka, čímž se snižuje bariéra pro tvorbu malwaru, vývoj exploitů a přizpůsobení payloadů útočníkům. -
Nové techniky obfuskace generované AI - "ADVERSARIALuscator: (Sewak et al. 2021): "An Adversarial-DRL Based Obfuscator and Metamorphic Malware SwarmGenerator" (Adversarial-DRL založený na obfuskátoru a metamorfním generátoru malwaru)
Článek představuje ADVERSARIALuscator, AI, který dokáže automaticky přepisovat kód malwaru tak, aby vytvářel mnoho verzí a vypadal pokaždé jinak a vyhnul se tak detekci bezpečnostními systémy. Při testech byla přibližně třetina těchto variant schopna obejít pokročilé bezpečnostní systémy. -
AI poháněný "vibe-coding" malware - "Hackeři používají AI k rozboru zpráv o hrozbách a malwaru 'vibe code'" (Kelly 2025)
V tomto článku bezpečnostní výzkumníci uvedli, že hackeři používají generativní AI ke čtení a interpretaci zpráv o hrozbách a následně automaticky vytvářejí funkční malware. Tato technika, označovaná jako "vibe-coding", převádí analýzy čitelné pro člověka na kód, což protivníkům umožňuje rychle využít veřejný výzkum kybernetické bezpečnosti jako zbraň pro zneužití.
Dodávka
Útočník provede útok tak, že přenese škodlivý náklad na cíl, často prostřednictvím podvodných e-mailů, falešných webových stránek nebo nezabezpečených sítí.
Jak AI mění doručování:
Společnost AI přizpůsobuje a časuje mechanismy doručování tak, aby dosáhla co největšího úspěchu. Automatizuje generování přesvědčivého phishingového obsahu, deepfakes v reálném čase, adaptivních chatových interakcí a realistických podvodných webových stránek a využívá průzkumná data k výběru optimálního okamžiku a kanálu pro doručení. Tím se snižuje potřeba lidských dovedností při provádění kampaní.
Zvýrazněný případ: Podvod s falešným generálním ředitelem ve společnosti Arup
V roce 2024 budou zaměstnanci Britská inženýrská společnost Arup obdrželi něco, co vypadalo jako legitimní videohovor od jejich regionálního výkonného ředitele. Výkonný ředitel naléhavě požadoval převod finančních prostředků v souvislosti s důvěrnou transakcí. Osoba na obrazovce pozoruhodně přesně kopírovala vzhled, hlas a chování generálního ředitele.
Ve skutečnosti se nejednalo o volajícího, ale o deepfake vytvořený prostřednictvím služby AI, který ho měl napodobovat v reálném čase. Přesvědčeni o pravosti interakce zaměstnanci schválili sekvenci převodů v hodnotě téměř 25 milionů amerických dolarů.
Tento incident je jedním z největších zaznamenaných případů sociálního inženýrství s využitím technologie AI ve fázi doručení kybernetického útoku. Ukazuje, že phishing již nemusí záviset na špatně vytvořených e-mailech nebo pochybných odkazech. Místo toho nyní AI umožňuje nasazení vysoce realistických zvukových a obrazových imitací, které obcházejí nejen technické kontroly, ale také lidský úsudek a důvěru.
-
LLM pro sociální inženýrství a phishing ve velkém měřítku - "Zkoumání LLM pro detekci malwaru: (Al-Karaki & Khan 2024).
Článek popisuje, jak lze LLM využít k automatizaci phishingového obsahu, generování polymorfního malwaru a vytváření vstupů protivníka. -
Sociální inženýrství poháněné technologií AI - "Stín podvodu: (Yu et al. 2024): "The Emerging Danger of AI-powered Social Engineering and its Possible Cure" (Vznikající nebezpečí sociálního inženýrství na bázi AI a jeho možné léčení).
Průzkum ukazuje, jak modely šíření a LLM umožňují personalizovat a přesvědčivěji se vydávat za phishing. Kategorizuje sociální inženýrství využívající AI do "fází 3E" (Enlarging, Enriching, Emerging) a zdůrazňuje, jak mohou útočníci rozšiřovat kampaně, zavádět nové vektory a využívat nové hrozby, čímž se zefektivňuje doručování škodlivých zátěží. -
Hlasové podvody / phishing generované AI - "Podvedl jsem svou banku" (Hoover 2025)
Novinářský experiment, který odhaluje deepfake hlas generovaný AI a používaný k podvodům s bankovními účty.
Využívání
Útočník spustí užitečné zatížení, aby zneužil zranitelnost a získal neoprávněný přístup k cílovému systému. Po infiltraci do organizace útočník tento přístup využije k laterálnímu pohybu mezi systémy, aby našel relevantní informace (např. citlivá data, další zranitelnosti, e-mailové servery atd.) a poškodil organizaci.
Jak AI mění využívání:
AI pomáhá útočníkům identifikovat, pochopit a zneužít slabá místa systému pomocí automatizovaného odhalování zranitelností (například inteligentní fuzzing a řízené skenování), sestavování stromů útoků a navrhování cest zneužití. Může také generovat útočné vstupy, které obcházejí bezpečnostní nástroje nebo zneužívají obranu.
Zvýrazněný případ: Šnek Morris II AI
V roce 2024, výzkumníci demonstroval novou formu samopropagujícího se červa, který se nespoléhal na zneužití běžných softwarových zranitelností. Místo toho se zaměřil na samotné generativní systémy AI.
Pojmenované Morris II v návaznosti na známý Morrisův červ z roku 1988 tento útok proof-of-concept využíval podněty protivníka k manipulaci modelů AI, aby reprodukovaly a distribuovaly škodlivé instrukce. Jakmile byl systém "infikován", červ mohl autonomně generovat další podněty, které přiměly AI k replikaci útoku a jeho přenosu na další modely.
Na rozdíl od tradičních červů, kteří obvykle využívají neopravený kód, Morris II šíří využitím otevřenosti a nepředvídatelnosti generativního chování AI. Demonstrace zdůraznila, že s tím, jak organizace stále více začleňují generativní AI do provozních pracovních postupů, mohou odhalit nové útočné plochy, kde zranitelnost nespočívá ve zdrojovém kódu, ale v tréninkových datech a reakcích modelů.
-
Útočný a útočný AI - "Zneužití AI k útokům: (Shröer & Pajola 2025)
Studie popisuje, jak mohou útočníci zneužívat zranitelnosti systémů AI prostřednictvím protivníkových vstupů nebo jak mohou samotný systém AI využít k účinnějším útokům na tradiční cíle, přičemž zdůrazňuje dvojí roli systému AI jako nástroje i cíle kybernetických útoků. -
Binární soubory škodlivého softwaru - "Adversarial Malware Binaries: (Kolosnjarski et al. 2018): "Obcházení hlubokého učení pro detekci malwaru ve spustitelných souborech" (Kolosnjarski et al. 2018)
Studie ukazuje útoky založené na gradientu, které modifikují méně než 1% bajtů ve spustitelných souborech při zachování funkčnosti a úspěšně se vyhýbají detektorům malwaru s hlubokým učením vycvičeným na surových bajtech.
Instalace
Útočník instaluje malware nebo zadní vrátka, aby si udržel (skrytý) trvalý přístup a kontrolu uvnitř cílového systému.
Jak AI mění instalaci:
AI dokáže vytvářet adaptivní techniky setrvání a navrhovat nejúčinnější vektory instalace na základě analýzy dat z předchozích fází, ale plná automatizace nuancované, rozhodovací fáze instalace zůstává omezená. V případě použití umožňuje AI malwaru modifikovat chování tak, aby se vyhnul detekci, a zvolit optimální načasování a vstupní body.
Zvýrazněný případ: Ransomware, který se naučí skrývat
V roce 2024, výzkumníci zavedl systém známý jako EGAN, model AI vyvinutý ke zkoumání toho, jak může ransomware využívat strategie učení, aby se vyhnul detekci. Na rozdíl od tradičního statického malwaru, který je buď identifikován, nebo přehlédnut, EGAN fungoval na základě opakovaného experimentování.
Systém opakovaně upravoval kód ransomwaru a testoval postupné varianty, dokud nevznikl kód, který dokázal obejít antivirovou ochranu a zároveň si zachoval plnou funkčnost. Škodlivý software se tak "naučil" obcházet mechanismy detekce založené na anomáliích, které jsou obvykle účinné při odhalování podezřelého chování.
Ačkoli byl vytvořen ve výzkumném prostředí, EGAN ukázal, jak by mechanismy perzistence řízené technologií AI mohly výrazně ztížit odhalení a vymýcení ransomwaru po jeho nasazení. Namísto závislosti na předdefinovaných technikách vyhýbání se škodlivému softwaru se tento software dynamicky přizpůsoboval, čímž vznikla vyhlídka na téměř "nezničitelný" škodlivý software.
-
Vyhýbání se malwaru na základě RL - "Learning to Evade Static PE Machine Learning Malware Models via Reinforcement Learning" (Anderson et al. 2018)
Studie ukazuje, jak mohou agenti, kteří se učí pomocí posilování, iterativně modifikovat malware Windows PE pomocí změn zachovávajících funkčnost, aby se vyhnuli statickým detektorům malwaru využívajícím strojové učení, a umožnit tak plně adaptivní instalaci perzistentního malwaru v režimu černé skříňky.
Velení a řízení
Po získání kontroly nad více systémy vytvoří útočník řídicí centrum, které je může vzdáleně využívat. Útočník naváže vzdálenou komunikaci s napadeným systémem prostřednictvím různých kanálů (např. web, DNS nebo e-mail), aby mohl řídit operace a vyhnout se detekci. Útočník používá různé techniky, například obfuskaci, aby zahladil stopy a vyhnul se odhalení, nebo útoky typu DoS (denial-of-service), aby odvedl pozornost bezpečnostních specialistů od svých skutečných cílů.
Jak AI mění velení a řízení (C2):
AI umožňuje skrytější komunikaci C2 generováním provozu, který napodobuje legitimní činnost, navrhováním úhybných algoritmů pro generování domén a organizováním decentralizovaných, adaptivních botnetů. Dokáže také vyladit chování C2 tak, aby se vyhnul detektorům anomálií.
Zvýrazněný případ: AI-koordinované botnety, roje s vlastní myslí
V roce 2023, výzkumníci demonstroval novou formu botnetu poháněného technologií AI. Běžné botnety se obvykle spoléhají na centrální řídicí a kontrolní server (C2), jehož prostřednictvím jeden uzel vydává pokyny, které pak napadené stroje neboli "boti" vykonávají. Tuto architekturu však lze často narušit, jakmile obránci identifikují a vyřadí centrální server.
Botnet s podporou AI použil jiný model. Každý uzel v síti používal učení posilováním, aby autonomně určil, kdy zahájit útok, které cíle sledovat a jak přizpůsobit taktiku v reakci na obranná opatření. Namísto očekávání centralizovaných pokynů boty decentralizovaně spolupracovaly a fungovaly jako samoorganizující se úl.
Díky této konstrukci byl botnet odolnější a obtížněji odhalitelný. I když byly některé uzly zneškodněny, ostatní se mohly přizpůsobit a pokračovat v činnosti. Úkolem obránců již nebylo pouze narušit jeden server, ale bylo třeba čelit distribuovanému, přizpůsobivému roji napadených strojů.
-
Skrývání stop a manipulace se záznamy na bázi AI - "5 antiforenzních technik, které oklamou vyšetřovatele (+ příklady a tipy pro detekci)" (CyberJunkie 2023)
Zprávy z let 2024-2025 popisují, jak lze AI využít k vymazání nebo změně digitálních záznamů, aby se útoky skryly před vyšetřovateli, ačkoli úplné příklady z reálného světa jsou stále vzácné. -
Obcházení systémů detekce narušení sítě na bázi GAN - "Útok! Adversarial Attacks to bypass a GAN based classifier trained to detect Network intrusion" (Piplai et al. 2020)
Studie ukazuje, jak mohou útočníci úspěšně obcházet systémy detekce narušení vycvičené na GAN, což útočníkům umožňuje maskovat provoz C2 jako běžnou síťovou aktivitu.
Opatření k cílům
Útočník provede svůj konečný cíl, jako je exfiltrace dat, šifrování dat nebo jejich zničení.
Jak AI mění činnost v oblasti cílů:
AI urychluje a zdokonaluje konečné úkoly útoku: automatizovanou exfiltraci dat, stanovení priorit vysoce cenných aktiv, na míru šité vyděračské zprávy a rozsáhlé generování obsahu pro dezinformace nebo narušení. Konečná strategická rozhodnutí často stále vyžadují lidský úsudek, ale AI zkracuje cestu k těmto rozhodnutím.
Zvýrazněný případ: PromptLocker, orchestrace ransomwaru řízená AI
V roce 2024, výzkumníci z New York University představili PromptLocker, zkušební verzi ransomwarového systému řízeného rozsáhlým jazykovým modelem. Na rozdíl od běžného ransomwaru, který se řídí předem definovaným chováním, PromptLocker rozhodoval v reálném čase a automatizoval více fází životního cyklu útoku. Při demonstraci model autonomně:
- vybraly nejcennější cíle v napadeném systému,
- exfiltrace citlivých dat před šifrováním, čímž se zvyšuje vliv na oběti,
- zašifrovaných svazků a souborů, aby byl přístup odepřen.
- generoval výkupné na míru a přizpůsoboval tón a požadavky profilu oběti (například finanční možnosti a odvětví).
Přestože práce probíhala v kontrolovaném výzkumném prostředí, PromptLocker ukázal, jak generativní AI může automatizovat a rozšiřovat úkoly, které dříve vyžadovaly lidské plánování, a tím urychlit schopnost útočníků dosáhnout svých cílů a přizpůsobit se měnícím se okolnostem.
-
Dezinformace generované AI ve velkém měřítku - "Proruská dezinformační kampaň využívá bezplatné nástroje AI k "explozi obsahu" (Gilbert 2025)
Článek vysvětluje, jak kampaň Operation Overload (2023-2025), která je napojená na Rusko, využívá nástroje AI k masové výrobě falešných snímků, videí a hlasových klonů veřejných osobností. Tento materiál se široce šíří prostřednictvím botových sítí na sociálních sítích s cílem prosazovat rozdělující narativy. -
falešné profily na sociálních sítích vytvořené společností AI za účelem zesílení - "Charakteristika a výskyt falešných profilů na sociálních sítích s tvářemi generovanými AI" (Yang et al. 2024)
Při vyšetřování bylo zjištěno více než 1400 účtů na Twitteru, které používaly profilové obrázky vytvořené společností AI a které byly organizovány do sítí s cílem podpořit podvody a politicky motivované zprávy, přičemž tisíce takových účtů byly denně aktivní. -
falešné dokumenty a zpravodajské kanály vytvořené AI (psyops) - "Lži, které si Rusko namlouvá Propagandisté této země se zaměřují na Západ, ale klamou i Kreml" (Rid 2024)
Článek vysvětluje, jak probíhající kampaň Doppelgänger vytváří přesvědčivé falešné verze legitimních zpravodajských webů a zveřejňuje články vytvořené AI, aby propagovala proruské narativy na Západě.
Otázky k diskusi
- Který krok řetězce kybernetického zabíjení bude v budoucnu pravděpodobně nejvíce transformován pomocí AI a proč? A ve které fázi v současnosti přináší AI útočníkům nejslibnější výsledky? Ve které fázi se zdá být implementace AI méně efektivní a slibná?
- Přiklání AI výhodu v kyberprostoru spíše k útočníkům nebo obráncům?
- Vyrovná široký přístup k AI podmínky pro amatéry, nebo posílí hlavně dobře vybavené protivníky?
- Jak schopnost AI automatizovat a urychlit řetězec kybernetického zabíjení mění povahu kybernetických útoků?
- Mohl by AI umožnit tak rychlé a přizpůsobivé útoky, že by se tradiční obranné rámce staly zastaralými?
- Kdo nese odpovědnost v případě zneužití modelů AI ke kybernetickým útokům: vývojáři, nasaditelé nebo útočníci?
- Jak mohou tvůrci politik regulovat ofenzivní AI, aniž by potlačili inovace v obranných nebo civilních aplikacích?
- Posune AI kybernetický konflikt směrem k autonomnějšímu vedení války "stroj na stroj"?
- Mohl by AI zásadně změnit model řetězce kybernetického zabíjení na něco nelineárního a průběžně adaptivního?