Umělá inteligence v kybernetické kriminalitě

Jak AI mění řetězec kybernetického zabíjení

Ofenzivní kybernetické operace jsou záměrné akce prováděné v kybernetickém prostoru s cílem proniknout do systémů protivníka, narušit je nebo zničit za účelem dosažení strategických cílů. Obvykle jsou formulovány prostřednictvím Cyber Kill Chain, rámec původně vyvinutý společností Lockheed Martin. Rámec rozděluje útok do strukturované posloupnosti fází a sleduje postup protivníka od počáteční rekognoskace až po konečné akce podniknuté k dosažení cílů (např. exfiltrace dat nebo jejich zničení).

2

2

Ozbrojování

Spojení exploitu s backdoorem do doručitelného užitečného zatížení

Dodávka

doručení ozbrojeného balíčku oběti prostřednictvím e-mailu, webu, USB atd.

3

3

4

4

Využívání

Zneužití zranitelnosti ke spuštění kódu v systému oběti.

Instalace

Instalace malwaru do zařízení

5

5

6

6

Velení a řízení (C2)

Příkazový kanál pro vzdálenou manipulaci s obětí

Akce k cílům

S přístupem "Hands on Keyboard" dosáhnou útočníci svých původních cílů.

7

7

V posledních letech se útočné kybernetické operace zintenzivnily co do objemu i složitosti. Globálních kybernetických útoků nejen prudce přibývá, ale také se diverzifikuje jejich typ.: v roce 2022, 27% globálních kybernetických útoků bylo založeno na vydírání, 21% zahrnovalo zadní vrátka a 17% ransomware.. Umělá inteligence (AI) hraje v této eskalaci a diverzifikaci významnou roli, protože umožňuje nové formy útoků, jako jsou deepfakes nebo swarm malware, a zároveň posiluje tradiční vektory, jako je phishing nebo zneužívání zranitelností. Podle Globální průzkum finančních ředitelů, nápadně 85% odborníků na kybernetickou bezpečnost připisuje nárůst útoků ozbrojení generativních AI. V indickém Bengalúru se státní zpráva potvrdil tento trend: na začátku roku 2025 bylo 80% phishingových e-mailů vytvořeno AI.

AI mění samotný řetězec Cyber Kill Chain, a to má potenciál k posílení všech fází útočných kybernetických kampaní.. Rychlost a rozsah, s jakým AI tento řetězec přetváří, se staly naléhavým problémem národní bezpečnosti.

Tento soubor nástrojů se zaměřuje konkrétně na AI jako nástroj umožňující útok a zkoumá, jak mění různé fáze řetězce Cyber Kill Chain.

Průzkum

Útočník shromažďuje informace o cíli, například údaje o zaměstnancích, e-maily nebo systémová data, aby mohl naplánovat svůj útok.

Jak AI mění průzkum:

AI automatizuje a urychluje shromažďování zpravodajských informací z otevřených zdrojů zpracováním velkých objemů veřejných dat (sociální média, firemní stránky, uniklé záznamy) a extrahováním strukturovaných artefaktů, jako jsou subdomény, pravděpodobné rozsahy IP adres a profily zaměstnanců. Snižuje také kvalifikační bariéru pro cílené sociální inženýrství tím, že vytváří stručné profily obětí vhodné pro spear-phishing.
Rozsah dopadu: Vysoký. Automatizovaný OSINT podstatně snižuje časovou náročnost a potřebu odborných znalostí.

Zvýrazněný případ: ChatGPT jako průzkumný asistent

V roce 2024, výzkumník v oblasti kybernetické bezpečnosti Sheetal Tamara publikoval článek, který ukazuje, jak mohou rozsáhlé jazykové modely, jako je ChatGPT, výrazně urychlit průzkumnou fázi útoku. Místo toho, aby výzkumník strávil hodiny psaním skriptů a ručním sběrem informací z otevřených zdrojů, použil například krátkou sérii konverzačních výzev: "Vyjmenujte všechny subdomény, které můžete najít pro examplecompany.com", "Shrňte topologii sítě společnosti na základě veřejně dostupných informací" a "Určete, jaké operační systémy a služby jsou s největší pravděpodobností spuštěny na těchto serverech".

Během několika minut model vytvořil užitečný průzkumný materiál, včetně:

  • seznam domén a subdomén spojených s cílovou společností.
  • pravděpodobné rozsahy adres IP
  • poznámky ke konfiguracím SSL/TLS, potenciálním otevřeným portům a běžným službám.
  • veřejné informace o zaměstnancích (z LinkedIn a tiskových zpráv), které by mohly být použity pro spear-phishing.

Tam, kde by shromažďování OSINT normálně vyžadovalo hodiny nebo dny manuální práce, experiment omezil úkol na konverzační pracovní postup, který vyžadoval mnohem méně technických znalostí. Studie proto zdůrazňuje, jak mohou generativní modely snížit bariéru automatizovaného průzkumu, což má jasné důsledky pro obrannou praxi a modelování hrozeb.

Další literatura

Ozbrojování

Útočník využívá informace zjištěné během průzkumu k vytvoření nebo přizpůsobení škodlivého nákladu (např. malwaru nebo exploitů) a zneužití slabých míst cíle.

Jak AI mění vyzbrojování:

AI zjednodušuje vytváření a ladění škodlivých zátěží generováním nebo úpravou kódu a testováním variant proti detekčním modelům. Tím lze vytvořit diskrétnější, adaptivnější a cílenější užitečné zatížení, včetně polymorfních variant, které mění svůj vzhled při každém spuštění. Adversariální testování lze použít ke zdokonalení užitečných zátěží před jejich nasazením.

Rozsah dopadu: Vysoký. Automatizace urychluje a rozšiřuje vývoj užitečného zatížení.

Zvýrazněný případ: Dropper generovaný AI v divočině

V roce 2024, analytici kybernetické bezpečnosti identifikovala phishingovou kampaň, která se zpočátku jevila jako rutinní: série e-mailů, které distribuovaly běžný malware. Při bližším zkoumání dropperu (tj. malého programu zodpovědného za instalaci a aktivaci primárního malwaru) však byla zjištěna neobvyklá vlastnost.

Struktura a syntaxe kapátka naznačovala, že bylo vygenerováno rozsáhlým jazykovým modelem, nikoliv vytvořeno lidským programátorem. Přestože fungoval jako jednoduchý wrapper, byl dropper vytvořený AI vybroušený a účinný a prokázal schopnost vyhnout se tradičním detekčním metodám. Úspěšně obešel základní antivirové signatury a doručil malware tak, jak bylo zamýšleno.

Toto zjištění bylo pozoruhodné jako jeden z prvních potvrzených případů nasazení škodlivého kódu generovaného pomocí AI ve volné přírodě. Ačkoli základní malware nebyl nový, zadání části procesu výroby zbraní společnosti AI znamenalo významný vývoj. Ukázal, jak mohou útočníci rozšířit operace, snížit náklady na vývoj a rychleji se přizpůsobit a zároveň zkomplikovat úsilí o odhalení a reakci.

Další literatura

Dodávka

Útočník provede útok tak, že přenese škodlivý náklad na cíl, často prostřednictvím podvodných e-mailů, falešných webových stránek nebo nezabezpečených sítí.

Jak AI mění doručování:

Společnost AI přizpůsobuje a časuje mechanismy doručování tak, aby dosáhla co největšího úspěchu. Automatizuje generování přesvědčivého phishingového obsahu, deepfakes v reálném čase, adaptivních chatových interakcí a realistických podvodných webových stránek a využívá průzkumná data k výběru optimálního okamžiku a kanálu pro doručení. Tím se snižuje potřeba lidských dovedností při provádění kampaní.

Rozsah dopadu: Vysoký. AI výrazně zvyšuje přesvědčivost a automatizaci doručování.

Zvýrazněný případ: Podvod s falešným generálním ředitelem ve společnosti Arup

V roce 2024 budou zaměstnanci Britská inženýrská společnost Arup obdrželi něco, co vypadalo jako legitimní videohovor od jejich regionálního výkonného ředitele. Výkonný ředitel naléhavě požadoval převod finančních prostředků v souvislosti s důvěrnou transakcí. Osoba na obrazovce pozoruhodně přesně kopírovala vzhled, hlas a chování generálního ředitele.

Ve skutečnosti se nejednalo o volajícího, ale o deepfake vytvořený prostřednictvím služby AI, který ho měl napodobovat v reálném čase. Přesvědčeni o pravosti interakce zaměstnanci schválili sekvenci převodů v hodnotě téměř 25 milionů amerických dolarů.

Tento incident je jedním z největších zaznamenaných případů sociálního inženýrství s využitím technologie AI ve fázi doručení kybernetického útoku. Ukazuje, že phishing již nemusí záviset na špatně vytvořených e-mailech nebo pochybných odkazech. Místo toho nyní AI umožňuje nasazení vysoce realistických zvukových a obrazových imitací, které obcházejí nejen technické kontroly, ale také lidský úsudek a důvěru.

Další literatura

Využívání

Útočník spustí užitečné zatížení, aby zneužil zranitelnost a získal neoprávněný přístup k cílovému systému. Po infiltraci do organizace útočník tento přístup využije k laterálnímu pohybu mezi systémy, aby našel relevantní informace (např. citlivá data, další zranitelnosti, e-mailové servery atd.) a poškodil organizaci.

Jak AI mění využívání:

AI pomáhá útočníkům identifikovat, pochopit a zneužít slabá místa systému pomocí automatizovaného odhalování zranitelností (například inteligentní fuzzing a řízené skenování), sestavování stromů útoků a navrhování cest zneužití. Může také generovat útočné vstupy, které obcházejí bezpečnostní nástroje nebo zneužívají obranu.

Rozsah dopadu: Střední. AI zvyšuje rychlost a účinnost odhalování, zejména u složitých systémů.

Zvýrazněný případ: Šnek Morris II AI

V roce 2024, výzkumníci demonstroval novou formu samopropagujícího se červa, který se nespoléhal na zneužití běžných softwarových zranitelností. Místo toho se zaměřil na samotné generativní systémy AI.

Pojmenované Morris II v návaznosti na známý Morrisův červ z roku 1988 tento útok proof-of-concept využíval podněty protivníka k manipulaci modelů AI, aby reprodukovaly a distribuovaly škodlivé instrukce. Jakmile byl systém "infikován", červ mohl autonomně generovat další podněty, které přiměly AI k replikaci útoku a jeho přenosu na další modely.

Na rozdíl od tradičních červů, kteří obvykle využívají neopravený kód, Morris II šíří využitím otevřenosti a nepředvídatelnosti generativního chování AI. Demonstrace zdůraznila, že s tím, jak organizace stále více začleňují generativní AI do provozních pracovních postupů, mohou odhalit nové útočné plochy, kde zranitelnost nespočívá ve zdrojovém kódu, ale v tréninkových datech a reakcích modelů.

Další literatura

Instalace

Útočník instaluje malware nebo zadní vrátka, aby si udržel (skrytý) trvalý přístup a kontrolu uvnitř cílového systému.

Jak AI mění instalaci:

AI dokáže vytvářet adaptivní techniky setrvání a navrhovat nejúčinnější vektory instalace na základě analýzy dat z předchozích fází, ale plná automatizace nuancované, rozhodovací fáze instalace zůstává omezená. V případě použití umožňuje AI malwaru modifikovat chování tak, aby se vyhnul detekci, a zvolit optimální načasování a vstupní body.

Rozsah dopadu: Střední. AI zlepšuje odolnost a skrytí, ale plná automatizace zůstává omezená, protože instalace vyžaduje kontextová rozhodnutí.

Zvýrazněný případ: Ransomware, který se naučí skrývat

V roce 2024, výzkumníci zavedl systém známý jako EGAN, model AI vyvinutý ke zkoumání toho, jak může ransomware využívat strategie učení, aby se vyhnul detekci. Na rozdíl od tradičního statického malwaru, který je buď identifikován, nebo přehlédnut, EGAN fungoval na základě opakovaného experimentování.

Systém opakovaně upravoval kód ransomwaru a testoval postupné varianty, dokud nevznikl kód, který dokázal obejít antivirovou ochranu a zároveň si zachoval plnou funkčnost. Škodlivý software se tak "naučil" obcházet mechanismy detekce založené na anomáliích, které jsou obvykle účinné při odhalování podezřelého chování.

Ačkoli byl vytvořen ve výzkumném prostředí, EGAN ukázal, jak by mechanismy perzistence řízené technologií AI mohly výrazně ztížit odhalení a vymýcení ransomwaru po jeho nasazení. Namísto závislosti na předdefinovaných technikách vyhýbání se škodlivému softwaru se tento software dynamicky přizpůsoboval, čímž vznikla vyhlídka na téměř "nezničitelný" škodlivý software.

Další literatura

Velení a řízení

Po získání kontroly nad více systémy vytvoří útočník řídicí centrum, které je může vzdáleně využívat. Útočník naváže vzdálenou komunikaci s napadeným systémem prostřednictvím různých kanálů (např. web, DNS nebo e-mail), aby mohl řídit operace a vyhnout se detekci. Útočník používá různé techniky, například obfuskaci, aby zahladil stopy a vyhnul se odhalení, nebo útoky typu DoS (denial-of-service), aby odvedl pozornost bezpečnostních specialistů od svých skutečných cílů.

Jak AI mění velení a řízení (C2):

AI umožňuje skrytější komunikaci C2 generováním provozu, který napodobuje legitimní činnost, navrhováním úhybných algoritmů pro generování domén a organizováním decentralizovaných, adaptivních botnetů. Dokáže také vyladit chování C2 tak, aby se vyhnul detektorům anomálií.

Rozsah dopadu: Střední. AI zvyšuje sofistikovanost a odolnost C2, ale provozní omezení omezují jeho široké přijetí.

Zvýrazněný případ: AI-koordinované botnety, roje s vlastní myslí

V roce 2023, výzkumníci demonstroval novou formu botnetu poháněného technologií AI. Běžné botnety se obvykle spoléhají na centrální řídicí a kontrolní server (C2), jehož prostřednictvím jeden uzel vydává pokyny, které pak napadené stroje neboli "boti" vykonávají. Tuto architekturu však lze často narušit, jakmile obránci identifikují a vyřadí centrální server.

Botnet s podporou AI použil jiný model. Každý uzel v síti používal učení posilováním, aby autonomně určil, kdy zahájit útok, které cíle sledovat a jak přizpůsobit taktiku v reakci na obranná opatření. Namísto očekávání centralizovaných pokynů boty decentralizovaně spolupracovaly a fungovaly jako samoorganizující se úl.

Díky této konstrukci byl botnet odolnější a obtížněji odhalitelný. I když byly některé uzly zneškodněny, ostatní se mohly přizpůsobit a pokračovat v činnosti. Úkolem obránců již nebylo pouze narušit jeden server, ale bylo třeba čelit distribuovanému, přizpůsobivému roji napadených strojů.

Další literatura

Opatření k cílům

Útočník provede svůj konečný cíl, jako je exfiltrace dat, šifrování dat nebo jejich zničení.

Jak AI mění činnost v oblasti cílů:

AI urychluje a zdokonaluje konečné úkoly útoku: automatizovanou exfiltraci dat, stanovení priorit vysoce cenných aktiv, na míru šité vyděračské zprávy a rozsáhlé generování obsahu pro dezinformace nebo narušení. Konečná strategická rozhodnutí často stále vyžadují lidský úsudek, ale AI zkracuje cestu k těmto rozhodnutím.

Rozsah dopadu: Střední. AI urychluje a stupňuje činnost zaměřenou na cíl, ale nenahrazuje zcela lidský záměr.

Zvýrazněný případ: PromptLocker, orchestrace ransomwaru řízená AI

V roce 2024, výzkumníci z New York University představili PromptLocker, zkušební verzi ransomwarového systému řízeného rozsáhlým jazykovým modelem. Na rozdíl od běžného ransomwaru, který se řídí předem definovaným chováním, PromptLocker rozhodoval v reálném čase a automatizoval více fází životního cyklu útoku. Při demonstraci model autonomně:

  • vybraly nejcennější cíle v napadeném systému,
  • exfiltrace citlivých dat před šifrováním, čímž se zvyšuje vliv na oběti,
  • zašifrovaných svazků a souborů, aby byl přístup odepřen.
  • generoval výkupné na míru a přizpůsoboval tón a požadavky profilu oběti (například finanční možnosti a odvětví).

Přestože práce probíhala v kontrolovaném výzkumném prostředí, PromptLocker ukázal, jak generativní AI může automatizovat a rozšiřovat úkoly, které dříve vyžadovaly lidské plánování, a tím urychlit schopnost útočníků dosáhnout svých cílů a přizpůsobit se měnícím se okolnostem.

Další literatura

Otázky k diskusi

Bibliografie

"Proruská dezinformační kampaň využívá bezplatné nástroje AI k "explozi obsahu" | WIRED". Přístup 19. září 2025. https://www.wired.com/story/pro-russia-disinformation-campaign-free-ai-tools/. 

"Ransomware PromptLocker poháněný AI je jen výzkumný projekt newyorské univerzity - kód fungoval jako typický ransomware, vybíral cíle, exfiltroval vybraná data a šifroval svazky | Tom's Hardware". Přístup 19. září 2025. https://www.tomshardware.com/tech-industry/cyber-security/ai-powered-promptlocker-ransomware-is-just-an-nyu-research-project-the-code-worked-as-a-typical-ransomware-selecting-targets-exfiltrating-selected-data-and-encrypting-volumes. 

Al-Karaki, Jamal, Muhammad Al-Zafar Khan a Marwan Omar. 'Exploring LLMs for Malware Detection: arXiv:2409.07587. Verze 1. Preprint, arXiv, 11. září 2024. https://doi.org/10.48550/arXiv.2409.07587. 

Anderson, Hyrum S., Anant Kharkar, Bobby Filar, David Evans a Phil Roth. 'Learning to Evade Static PE Machine Learning Malware Models via Reinforcement Learning'. arXiv:1801.08917. Preprint, arXiv, 30. ledna 2018. https://doi.org/10.48550/arXiv.1801.08917. 

Anis, Fatima a Mohammad Hammoudeh. 'Weaponizing AI in Cyberattacks A Comparative Study of AI Powered Tools for Offensive Security'. Sborník z 8. mezinárodní konference o sítích budoucnosti a distribuovaných systémech, ACM, 11. prosince 2024, 283-90. https://doi.org/10.1145/3726122.3726164. 

Buchanan, Ben. "Program výzkumu národní bezpečnosti v oblasti kybernetické bezpečnosti a umělé inteligence". Centrum pro bezpečnost a nové technologie, 2020. https://cset.georgetown.edu/publication/a-national-security-research-agenda-for-cybersecurity-and-artificial-intelligence/. 

Cohen, Stav, Ron Bitton a Ben Nassi. "Přichází červ AI: arXiv:2403.02817. "Unleashing Zero-Click Worms That Target GenAI-Powered Applications". Verze 1. Preprint, arXiv, 5. března 2024. https://doi.org/10.48550/arXiv.2403.02817. 

Commey, Daniel, Benjamin Appiah, Bill K. Frimpong, Isaac Osei, Ebenezer N. A. Hammond a Garth V. Crosby. 'EGAN: Evolutional GAN for Ransomware Evasion'. 2023 48. konference IEEE o lokálních počítačových sítích (LCN), 2. října 2023, 1-9. https://doi.org/10.1109/LCN58197.2023.10223320. 

'Cyber Kill Chain® | Lockheed Martin'. Přístup 19. září 2025. https://www.lockheedmartin.com/en-us/capabilities/cyber/cyber-kill-chain.html. 

"Kybernetické hrozby v EU: Fakta a čísla - Consilium". Přístup 22. září 2025. https://www.consilium.europa.eu/en/policies/top-cyber-threats/. 

"Deepfake podvodníci se vydávají za šéfy FTSE". Přístup 19. září 2025. https://www.thetimes.com/business-money/technology/article/deepfake-fraudsters-impersonate-ftse-chief-executives-z9vvnz93l. 

Hack The Box. '5 antiforenzních technik, které oklamou vyšetřovatele (+ příklady a tipy na odhalení)'. Přístup 19. září 2025. https://www.hackthebox.com/blog/anti-forensics-techniques. 

"Hackeři používají AI k rozboru zpráv o hrozbách a malwaru "Vibe Code" | IT Pro". Přístup 19. září 2025. https://www.itpro.com/security/hackers-are-using-ai-to-dissect-threat-intelligence-reports-and-vibe-code-malware. 

Hooverová, Amanda. "Nový chytrý podvod, který vaše banka nedokáže zastavit". Business Insider. Přístup 19. září 2025. https://www.businessinsider.com/bank-account-scam-deepfakes-ai-voice-generator-crime-fraud-2025-5. 

Huynh, Nam a Beiyu Lin. 'Large Language Models for Code Generation: arXiv:2503.01245. "A Comprehensive Survey of Challenges, Techniques, Evaluation, and Applications". Preprint, arXiv, 2. dubna 2025. https://doi.org/10.48550/arXiv.2503.01245. 

IBM Security X-Force Threat Intelligence Index 2023. n.d. 

Kolosnjaji, Bojan, Ambra Demontis, Battista Biggio, et al. 'Adversarial Malware Binaries: arXiv:1803.04173. Preprint, arXiv, 12. března 2018. https://doi.org/10.48550/arXiv.1803.04173. 

Li, Haoyuan, Hao Jiang, Tao Jin, et al. 'DATE: Domain Adaptive Product Seeker for E-Commerce'. arXiv:2304.03669. Preprint, arXiv, 7. dubna 2023. https://doi.org/10.48550/arXiv.2304.03669. 

Mirsky, Yisroel, Ambra Demontis, Jaidip Kotak, et al. "The Threat of Offensive AI to Organizations". Počítače a zabezpečení 124 (leden 2023): 103006. https://doi.org/10.1016/j.cose.2022.103006. 

Piplai, Aritran, Sai Sree Laya Chukkapalli a Anupam Joshi. 'NAttack! Adversarial Attacks to Bypass a GAN Based Classifier Trained to Detect Network Intrusion". 2020 IEEE 6th Intl Conference on Big Data Security on Cloud (BigDataSecurity), IEEE Intl Conference on High Performance and Smart Computing, (HPSC) a IEEE Intl Conference on Intelligent Data and Security (IDS)., květen 2020, 49-54. https://doi.org/10.1109/BigDataSecurity-HPSC-IDS49724.2020.00020. 

"Polymorfní malware AI: A Real-World POC and Detection Walkthrough - CardinalOps". Přístup 19. září 2025. https://cardinalops.com/blog/polymorphic-ai-malware-detection/. 

Rid, Thomas. "Lži, které si Rusko namlouvá". Zahraniční záležitosti, 30. září 2024. https://www.foreignaffairs.com/united-states/lies-russia-tells-itself. 

"938 milionů rupií ztracených kyberzločinci od ledna | Bengalúru News - Times of India". Přístup 22. září 2025. https://timesofindia.indiatimes.com/city/bengaluru/rs-938-crore-lost-to-cybercrooks-since-jan/articleshow/122075324.cms. 

Schröer, Saskia Laura, Luca Pajola, Alberto Castagnaro, Giovanni Apruzzese a Mauro Conti. "Využití AI pro útoky: On the Interplay between Adversarial AI and Offensive AI". arXiv:2506.12519. Verze 1. Preprint, arXiv, 14. června 2025. https://doi.org/10.48550/arXiv.2506.12519. 

Sewak, Mohit, Sanjay K. Sahay a Hemant Rathore. "ADVERSARIALuscator: An Adversarial-DRL Based Obfuscator and Metamorphic Malware SwarmGenerator". 2021 Mezinárodní společná konference o neuronových sítích (IJCNN), 18. července 2021, 1-9. https://doi.org/10.1109/IJCNN52387.2021.9534016. 

Temara, Sheetal. 'Maximizing Penetration Testing Success with Effective Reconnaissance Techniques Using ChatGPT'. arXiv:2307.06391. Preprint, arXiv, 20. března 2023. https://doi.org/10.48550/arXiv.2307.06391. 

Townsend, Kevin. 'AI-Generated Malware Found in the Wild'. SecurityWeek, 24. září 2024. https://www.securityweek.com/ai-generated-malware-found-in-the-wild/. 

Yamin, Muhammad Mudassar, Mohib Ullah, Habib Ullah a Basel Katt. "Weaponized AI for Cyber Attacks". Journal of Information Security and Applications 57 (březen 2021): 102722. https://doi.org/10.1016/j.jisa.2020.102722. 

Yang, Kai-Cheng, Danishjeet Singh a Filippo Menczer. 'Characteristics and Prevalence of Fake Social Media Profiles with AI-Generated Faces'. Časopis Online Trust and Safety 2, č. 4 (2024). https://doi.org/10.54501/jots.v2i4.197. 

Yu, Jingru, Yi Yu, Xuhong Wang a další "The Shadow of Fraud: The Emerging Danger of AI-Powered Social Engineering and Its Possible Cure". arXiv:2407.15912. Preprint, arXiv, 22. července 2024. https://doi.org/10.48550/arXiv.2407.15912. 

Děkujeme, že jste se přihlásili k odběru našeho newsletteru!

Děkujeme! Přijaté RSVP pro AI v kybernetickém přestupku

Umělá inteligence v kybernetické kriminalitě

Načítání...

Načítání...