AI w cyberprzestępczości

Jak AI zmienia łańcuch cyberzabójców

Ofensywne operacje cybernetyczne to celowe działania prowadzone w cyberprzestrzeni w celu infiltracji, zakłócania lub niszczenia systemów przeciwnika w dążeniu do osiągnięcia celów strategicznych. Są one powszechnie określane jako Cyber Kill Chain, struktura pierwotnie opracowana przez Lockheed Martin. Ramy te dzielą atak na uporządkowaną sekwencję faz, śledząc postępy przeciwnika od początkowego rozpoznania do ostatecznych działań podjętych w celu osiągnięcia celów (np. eksfiltracji lub zniszczenia danych).

2

2

Uzbrojenie

Łączenie exploita z backdoorem w dostarczalny ładunek

Dostawa

Dostarczanie uzbrojonego pakietu do ofiary za pośrednictwem poczty e-mail, Internetu, USB itp.

3

3

4

4

Eksploatacja

Wykorzystanie luki w zabezpieczeniach w celu wykonania kodu w systemie ofiary

Instalacja

Instalowanie złośliwego oprogramowania na zasobie

5

5

6

6

Dowodzenie i kontrola (C2)

Kanał poleceń do zdalnej manipulacji ofiarą

Działania dotyczące celów

Dzięki dostępowi "Hands on Keyboard" intruzi osiągają swoje pierwotne cele

7

7

W ostatnich latach ofensywne operacje cybernetyczne nasiliły się zarówno pod względem ilości, jak i złożoności. Globalne cyberataki nie tylko gwałtownie rosną, ale także różnicują się pod względem rodzajuw 2022 roku, 27% globalnych cyberataków było opartych na wymuszeniach, 21% obejmowało backdoory, a 17% ransomware.. Sztuczna inteligencja (AI) odgrywa główną rolę w tej eskalacji i dywersyfikacji, umożliwiając nowe formy ataków, takie jak deepfake lub swarm malware, jednocześnie wzmacniając tradycyjne wektory, takie jak phishing lub wykorzystywanie luk w zabezpieczeniach. Według Globalne badanie dyrektorów finansowych85% specjalistów ds. cyberbezpieczeństwa przypisuje wzrost liczby ataków uzbrojeniu generatywnego AI. W indyjskim mieście Bengaluru raport państwowy potwierdził ten trend: na początku 2025 r. 80% wiadomości phishingowych zostało wygenerowanych przez AI.

AI przekształca sam łańcuch cyberzabójców i ma następujące możliwości potencjał do doładowania każdego etapu ofensywnych kampanii cybernetycznych. Szybkość i skala, z jaką AI przekształca ten łańcuch, stała się pilną kwestią bezpieczeństwa narodowego.

Ten zestaw narzędzi koncentruje się w szczególności na AI jako czynniku umożliwiającym atak, badając, w jaki sposób przekształca on różne etapy łańcucha cyberzabójców.

Rozpoznanie

Atakujący zbiera informacje o celu, takie jak dane pracowników, e-maile lub dane systemowe, aby zaplanować atak.

Jak AI zmienia rekonesans:

AI automatyzuje i przyspiesza gromadzenie danych wywiadowczych o otwartym kodzie źródłowym poprzez przetwarzanie dużych ilości danych publicznych (media społecznościowe, strony korporacyjne, wycieki danych) oraz wyodrębnianie ustrukturyzowanych artefaktów, takich jak subdomeny, prawdopodobne zakresy IP i profile pracowników. Obniża również barierę umiejętności dla ukierunkowanej inżynierii społecznej, tworząc zwięzłe profile ofiar odpowiednie do spear-phishingu.
Zakres wpływu: Wysoki. Zautomatyzowany OSINT znacznie skraca czas i ogranicza wymaganą wiedzę specjalistyczną.

Wyróżniony przypadek: ChatGPT jako asystent rozpoznania

W 2024 r, badacz cyberbezpieczeństwa Sheetal Tamara opublikowała artykuł pokazujący, w jaki sposób duże modele językowe, takie jak ChatGPT, mogą znacznie przyspieszyć fazę rozpoznawczą ataku. Zamiast spędzać godziny na pisaniu skryptów i ręcznym zbieraniu danych wywiadowczych z otwartego źródła, badacz wykorzystał krótką serię podpowiedzi konwersacyjnych, na przykład: "Wymień wszystkie subdomeny, które możesz znaleźć dla examplecompany.com", "Podsumuj topologię sieci firmy na podstawie publicznie dostępnych informacji" oraz "Określ, jakie systemy operacyjne i usługi są najprawdopodobniej uruchomione na tych serwerach".

W ciągu kilku minut model wygenerował przydatne materiały rozpoznawcze, w tym:

  • lista domen i subdomen powiązanych z firmą docelową
  • prawdopodobne zakresy adresów IP
  • uwagi dotyczące konfiguracji SSL/TLS, potencjalnych otwartych portów i popularnych usług
  • publiczne informacje o pracownikach (z LinkedIn i komunikatów prasowych), które mogłyby zostać wykorzystane do spear-phishingu.

Tam, gdzie zbieranie OSINT normalnie wymagałoby godzin lub dni ręcznej pracy, eksperyment ograniczył zadanie do konwersacyjnego przepływu pracy, który wymagał znacznie mniejszej wiedzy technicznej. Badanie podkreśla zatem, w jaki sposób modele generatywne mogą obniżyć barierę dla zautomatyzowanego rozpoznania, z wyraźnymi implikacjami dla praktyki obronnej i modelowania zagrożeń.

Więcej informacji

Uzbrojenie

Atakujący wykorzystuje informacje odkryte podczas rekonesansu, aby zbudować lub dostosować złośliwy ładunek (np. złośliwe oprogramowanie lub exploity) i wykorzystać słabości celu.

Jak AI zmienia uzbrojenie:

AI usprawnia tworzenie i dostrajanie złośliwych ładunków poprzez generowanie lub modyfikowanie kodu oraz testowanie wariantów pod kątem modeli wykrywania. W ten sposób można tworzyć bardziej dyskretne, adaptacyjne i ukierunkowane ładunki, w tym warianty polimorficzne, które zmieniają swój wygląd przy każdym wykonaniu. Testy kontradyktoryjności mogą być wykorzystywane do udoskonalania ładunków przed ich wdrożeniem.

Zakres wpływu: Wysoki. Automatyzacja przyspiesza i skaluje rozwój ładunku.

Wyróżniony przypadek: Złośliwe oprogramowanie typu dropper generowane przez AI na wolności

W 2024 r, analitycy cyberbezpieczeństwa zidentyfikowała kampanię phishingową, która początkowo wydawała się rutynowa: seria wiadomości e-mail dystrybuujących konwencjonalny ładunek złośliwego oprogramowania. Jednak bliższa inspekcja droppera (tj. małego programu odpowiedzialnego za instalację i aktywację głównego złośliwego oprogramowania) ujawniła niezwykłą cechę.

Struktura i składnia droppera wskazywały, że został on wygenerowany przez duży model językowy, a nie napisany przez ludzkiego programistę. Chociaż działał jako prosty wrapper, dropper wyprodukowany przez AI był zarówno dopracowany, jak i skuteczny, demonstrując zdolność do unikania tradycyjnych metod wykrywania. Z powodzeniem omijał podstawowe sygnatury antywirusowe i dostarczał złośliwe oprogramowanie zgodnie z przeznaczeniem.

Odkrycie to było godne uwagi jako jeden z pierwszych potwierdzonych przypadków wdrożenia na wolności złośliwego kodu wygenerowanego przez AI. Chociaż złośliwe oprogramowanie nie było nowością, outsourcing części procesu uzbrojenia do AI oznaczał znaczący rozwój. Pokazało to, w jaki sposób atakujący mogą skalować operacje, zmniejszać koszty rozwoju i szybciej się dostosowywać, jednocześnie komplikując wykrywanie i reagowanie.

Więcej informacji

Dostawa

Atakujący przeprowadza atak, przesyłając złośliwy ładunek do celu, często za pośrednictwem wiadomości phishingowych, fałszywych stron internetowych lub niezabezpieczonych sieci.

Jak AI zmienia dostawę:

AI dostosowuje i synchronizuje mechanizmy dostarczania, aby zmaksymalizować sukces. Automatyzuje generowanie przekonujących treści phishingowych, deepfake'ów w czasie rzeczywistym, adaptacyjnych interakcji na czacie i realistycznych fałszywych stron internetowych, a także wykorzystuje dane rozpoznawcze, aby wybrać optymalny moment i kanał dostawy. Zmniejsza to zapotrzebowanie na ludzkie umiejętności w realizacji kampanii.

Zakres wpływu: Wysoki. AI znacznie zwiększa perswazyjność i automatyzację dostarczania.

Wyróżniona sprawa: Oszustwo Deepfake CEO w firmie Arup

W 2024 r. pracownicy Brytyjska firma inżynieryjna Arup otrzymał połączenie wideo, które wyglądało na legalne, od regionalnego dyrektora generalnego. Dyrektor pilnie zażądał przelewu środków w związku z poufną transakcją. Osoba na ekranie odwzorowywała wygląd, głos i maniery dyrektora generalnego z niezwykłą dokładnością.

W rzeczywistości dzwoniący nie był dyrektorem, ale fałszywą osobą wygenerowaną przez AI, zaprojektowaną do naśladowania go w czasie rzeczywistym. Przekonani o autentyczności interakcji, pracownicy autoryzowali sekwencję przelewów na kwotę prawie 25 milionów dolarów.

Incydent ten jest jednym z największych zgłoszonych przypadków inżynierii społecznej z wykorzystaniem AI podczas fazy dostarczania cyberataku. Pokazuje on, że phishing nie musi już polegać na źle spreparowanych wiadomościach e-mail lub wątpliwych linkach. Zamiast tego, AI umożliwia teraz wdrażanie wysoce realistycznych podróbek audio i wideo, które omijają nie tylko kontrole techniczne, ale także ludzką ocenę i zaufanie.

Więcej informacji

Eksploatacja

Atakujący uruchamia ładunek w celu wykorzystania luki w zabezpieczeniach i uzyskania nieautoryzowanego dostępu do systemu docelowego. Po infiltracji organizacji atakujący wykorzystuje ten dostęp do przemieszczania się między systemami w celu znalezienia odpowiednich informacji (np. wrażliwych danych, dodatkowych luk w zabezpieczeniach, serwerów poczty e-mail itp.

Jak AI zmienia wykorzystanie:

AI pomaga atakującym w identyfikacji, zrozumieniu i wykorzystaniu słabości systemu poprzez automatyzację wykrywania luk (na przykład inteligentny fuzzing i skanowanie sterowane), konstruowanie drzew ataków i proponowanie ścieżek eksploatacji. Może również generować przeciwne dane wejściowe, które omijają narzędzia bezpieczeństwa lub wykorzystują mechanizmy obronne.

Zakres wpływu: Średni. AI poprawia szybkość i skuteczność wykrywania, zwłaszcza w przypadku złożonych systemów.

Wyróżniony przypadek: Robak Morris II AI

W 2024 r, badacze zademonstrował nową formę samorozprzestrzeniającego się robaka, który nie polegał na wykorzystywaniu konwencjonalnych luk w oprogramowaniu. Zamiast tego atakował on same systemy generacyjne AI.

Nazwany Morris II W nawiązaniu do osławionego robaka Morrisa z 1988 roku, ten sprawdzony atak wykorzystywał podpowiedzi przeciwników do manipulowania modelami AI w celu powielania i rozpowszechniania złośliwych instrukcji. Po "zainfekowaniu" systemu robak mógł autonomicznie generować dalsze podpowiedzi, które skłaniały AI do powielenia ataku i przekazania go innym modelom.

W przeciwieństwie do tradycyjnych robaków, które zazwyczaj wykorzystują niezaktualizowany kod, Morris II poprzez wykorzystanie otwartości i nieprzewidywalności generatywnego zachowania AI. Demonstracja podkreśliła, że w miarę jak organizacje coraz częściej osadzają generatywny AI w operacyjnych przepływach pracy, mogą one ujawniać nowe powierzchnie ataku, w których podatność na ataki nie leży w kodzie źródłowym, ale w danych szkoleniowych i odpowiedziach modelu.

Więcej informacji

Instalacja

Atakujący instaluje złośliwe oprogramowanie lub backdoory, aby utrzymać (ukryty) stały dostęp i kontrolę w systemie docelowym.

Jak AI zmienia instalację:

AI może tworzyć adaptacyjne techniki trwałości i sugerować najskuteczniejsze wektory instalacji poprzez analizę danych z poprzednich etapów, ale pełna automatyzacja niuansowej, wymagającej podejmowania decyzji fazy instalacji pozostaje ograniczona. Tam, gdzie jest stosowany, AI umożliwia złośliwemu oprogramowaniu modyfikowanie zachowania w celu uniknięcia wykrycia i wybrania optymalnego czasu i punktów wejścia.

Zakres oddziaływania: Średni. AI poprawia wytrwałość i ukrycie, ale pełna automatyzacja pozostaje ograniczona, ponieważ instalacja wymaga decyzji kontekstowych.

Wyróżniony przypadek: Ransomware, które uczy się ukrywać

W 2024 r, badacze wprowadził system znany jako EGANmodel AI opracowany w celu zbadania, w jaki sposób oprogramowanie ransomware może wykorzystywać strategie uczenia się w celu uniknięcia wykrycia. W przeciwieństwie do tradycyjnego statycznego złośliwego oprogramowania, które jest albo identyfikowane, albo pomijane, EGAN obsługiwane przez iteracyjne eksperymenty.

System wielokrotnie modyfikował kod ransomware, testując kolejne warianty, aż stworzył taki, który mógł ominąć zabezpieczenia antywirusowe, zachowując pełną funkcjonalność. W efekcie złośliwe oprogramowanie "nauczyło się", jak omijać mechanizmy wykrywania anomalii, które zwykle skutecznie identyfikują podejrzane zachowania.

Chociaż stworzone w środowisku badawczym, EGAN zademonstrował, w jaki sposób mechanizmy trwałości oparte na AI mogą sprawić, że oprogramowanie ransomware będzie znacznie trudniejsze do wykrycia i wyeliminowania po wdrożeniu. Zamiast polegać na predefiniowanych technikach unikania, złośliwe oprogramowanie dostosowywało się dynamicznie, podnosząc perspektywę niemal "niemożliwego do zabicia" złośliwego oprogramowania.

Więcej informacji

Dowodzenie i kontrola

Po przejęciu kontroli nad wieloma systemami, atakujący tworzy centrum kontroli w celu ich zdalnego wykorzystania. Atakujący nawiązuje zdalną komunikację z zaatakowanym systemem za pośrednictwem różnych kanałów (np. WWW, DNS lub e-mail), aby kontrolować operacje i uniknąć wykrycia. Atakujący wykorzystuje różne techniki, takie jak zaciemnianie, aby zatrzeć ślady i uniknąć wykrycia, lub ataki typu "odmowa usługi" (DoS), aby odwrócić uwagę specjalistów ds. bezpieczeństwa od swoich prawdziwych celów.

Jak AI zmienia dowodzenie i kontrolę (C2):

AI umożliwia bardziej ukrytą komunikację C2 poprzez generowanie ruchu, który naśladuje legalną aktywność, projektowanie unikalnych algorytmów generowania domen i organizowanie zdecentralizowanych, adaptacyjnych botnetów. Może również dostosowywać zachowanie C2 w celu uniknięcia wykrywaczy anomalii.

Zakres oddziaływania: Średni. AI zwiększa wyrafinowanie i odporność C2, ale ograniczenia operacyjne ograniczają powszechne przyjęcie.

Wyróżnione przypadki: Skoordynowane botnety AI, roje z własnym umysłem

W 2023 r, badacze zademonstrowała nową formę botnetu zasilanego przez AI. Konwencjonalne botnety zazwyczaj opierają się na centralnym serwerze dowodzenia i kontroli (C2), za pośrednictwem którego pojedyncze centrum wydaje instrukcje, które następnie wykonują zainfekowane maszyny lub "boty". Architekturę tę można jednak często zakłócić, gdy obrońcy zidentyfikują i wyłączą centralny serwer.

Botnet obsługujący AI przyjął inny model. Każdy węzeł w sieci stosował uczenie ze wzmocnieniem, aby autonomicznie określić, kiedy zainicjować ataki, które cele realizować i jak dostosować taktykę w odpowiedzi na środki obronne. Zamiast czekać na scentralizowane instrukcje, boty współpracowały w sposób zdecentralizowany, funkcjonując jako forma samoorganizującego się roju.

Taka konstrukcja sprawiała, że botnet był bardziej odporny i trudniejszy do wykrycia. Nawet jeśli niektóre węzły zostały zneutralizowane, pozostałe mogły się dostosować i kontynuować działanie. Dla obrońców zadanie nie ograniczało się już do zakłócania pracy pojedynczego serwera, ale wymagało przeciwdziałania rozproszonemu, adaptacyjnemu rojowi zainfekowanych maszyn.

Więcej informacji

Działania związane z celami

Atakujący realizuje swój ostateczny cel, taki jak eksfiltracja danych, szyfrowanie danych lub zniszczenie danych.

Jak AI zmienia działania w zakresie celów:

AI przyspiesza i udoskonala końcowe zadania ataku: zautomatyzowaną eksfiltrację danych, priorytetyzację zasobów o wysokiej wartości, dostosowane wiadomości wymuszające i generowanie treści na dużą skalę w celu dezinformacji lub zakłóceń. Ostateczne decyzje strategiczne często nadal wymagają ludzkiego osądu, ale AI skraca drogę do ich podjęcia.

Zakres wpływu: Średni. AI przyspiesza i skaluje działania zorientowane na cel, ale nie zastępuje całkowicie ludzkich intencji.

Wyróżniony przypadek: PromptLocker, orkiestracja ransomware oparta na AI

W 2024 r, naukowcy z Uniwersytetu Nowojorskiego przedstawili PromptLockerto sprawdzony system ransomware kontrolowany przez duży model językowy. W przeciwieństwie do konwencjonalnego oprogramowania ransomware, które podąża za predefiniowanymi zachowaniami, PromptLocker podejmował decyzje w czasie rzeczywistym i automatyzował wiele etapów cyklu życia ataku. Podczas demonstracji model działał autonomicznie:

  • wybrał najbardziej wartościowe cele w zaatakowanym systemie,
  • eksfiltrował poufne dane przed zaszyfrowaniem, zwiększając przewagę nad ofiarami,
  • zaszyfrowane woluminy i pliki w celu odmowy dostępu
  • generował dostosowane noty okupu, dostosowując ton i żądania do profilu ofiary (na przykład możliwości finansowych i sektora).

Chociaż praca została przeprowadzona w kontrolowanym środowisku badawczym, PromptLocker zilustrował, w jaki sposób generatywny AI może zautomatyzować i skalować zadania, które wcześniej wymagały ludzkiego planowania, przyspieszając w ten sposób zdolność atakujących do osiągania swoich celów i dostosowywania się do zmieniających się okoliczności.

Więcej informacji

Pytania do dyskusji

Bibliografia

"Prorosyjska kampania dezinformacyjna wykorzystuje bezpłatne narzędzia AI do napędzania "eksplozji treści" | WIRED". Dostęp 19 września 2025. https://www.wired.com/story/pro-russia-disinformation-campaign-free-ai-tools/. 

"AI-Powered PromptLocker Ransomware Is Just an NYU Research Project - the Code Worked as a Typical Ransomware, Selecting Targets, Exfiltrating Selected Data and Encrypting Volumes | Tom's Hardware". Dostęp 19 września 2025 r. https://www.tomshardware.com/tech-industry/cyber-security/ai-powered-promptlocker-ransomware-is-just-an-nyu-research-project-the-code-worked-as-a-typical-ransomware-selecting-targets-exfiltrating-selected-data-and-encrypting-volumes. 

Al-Karaki, Jamal, Muhammad Al-Zafar Khan i Marwan Omar. "Exploring LLMs for Malware Detection: Review, Framework Design, and Countermeasure Approaches". arXiv:2409.07587. Wersja 1. Preprint, arXiv, 11 września 2024 r. https://doi.org/10.48550/arXiv.2409.07587. 

Anderson, Hyrum S., Anant Kharkar, Bobby Filar, David Evans i Phil Roth. "Learning to Evade Static PE Machine Learning Malware Models via Reinforcement Learning". arXiv:1801.08917. Preprint, arXiv, 30 stycznia 2018 r. https://doi.org/10.48550/arXiv.1801.08917. 

Anis, Fatima i Mohammad Hammoudeh. "Weaponizing AI in Cyberattacks A Comparative Study of AI Powered Tools for Offensive Security". Materiały z 8. międzynarodowej konferencji na temat sieci przyszłości i systemów rozproszonych, ACM, 11 grudnia 2024, 283-90. https://doi.org/10.1145/3726122.3726164. 

Buchanan, Ben. "Program badań nad bezpieczeństwem narodowym w zakresie cyberbezpieczeństwa i sztucznej inteligencji". Centrum bezpieczeństwa i nowych technologii, 2020. https://cset.georgetown.edu/publication/a-national-security-research-agenda-for-cybersecurity-and-artificial-intelligence/. 

Cohen, Stav, Ron Bitton i Ben Nassi. "Nadchodzi robak AI: Unleashing Zero-Click Worms That Target GenAI-Powered Applications". arXiv:2403.02817. Wersja 1. Preprint, arXiv, 5 marca 2024 r. https://doi.org/10.48550/arXiv.2403.02817. 

Commey, Daniel, Benjamin Appiah, Bill K. Frimpong, Isaac Osei, Ebenezer N. A. Hammond i Garth V. Crosby. "EGAN: Evolutional GAN for Ransomware Evasion". 2023 48. konferencja IEEE na temat lokalnych sieci komputerowych (LCN), 2 października 2023, 1-9. https://doi.org/10.1109/LCN58197.2023.10223320. 

"Cyber Kill Chain® | Lockheed Martin". Dostęp 19 września 2025. https://www.lockheedmartin.com/en-us/capabilities/cyber/cyber-kill-chain.html. 

"Zagrożenia cybernetyczne w UE: Fakty i liczby - Consilium". Dostęp 22 września 2025 r. https://www.consilium.europa.eu/en/policies/top-cyber-threats/. 

"Oszuści Deepfake podszywają się pod dyrektorów generalnych FTSE". Dostęp 19 września 2025. https://www.thetimes.com/business-money/technology/article/deepfake-fraudsters-impersonate-ftse-chief-executives-z9vvnz93l. 

Hack The Box. "5 technik antyforensowych pozwalających oszukać śledczych (+ przykłady i wskazówki dotyczące wykrywania)". Dostęp 19 września 2025. https://www.hackthebox.com/blog/anti-forensics-techniques. 

"Hakerzy używają AI do analizy raportów Threat Intelligence i złośliwego oprogramowania "Vibe Code" | IT Pro". Dostęp 19 września 2025. https://www.itpro.com/security/hackers-are-using-ai-to-dissect-threat-intelligence-reports-and-vibe-code-malware. 

Hoover, Amanda. "Nowy sprytny przekręt, którego bank nie może powstrzymać". Business Insider. Dostęp 19 września 2025. https://www.businessinsider.com/bank-account-scam-deepfakes-ai-voice-generator-crime-fraud-2025-5. 

Huynh, Nam, i Beiyu Lin. "Duże modele językowe do generowania kodu: A Comprehensive Survey of Challenges, Techniques, Evaluation, and Applications". arXiv:2503.01245. Preprint, arXiv, 2 kwietnia 2025 r. https://doi.org/10.48550/arXiv.2503.01245. 

IBM Security X-Force Threat Intelligence Index 2023. n.d. 

Kolosnjaji, Bojan, Ambra Demontis, Battista Biggio, et al. "Adversarial Malware Binaries: Evading Deep Learning for Malware Detection in Executables". arXiv:1803.04173. Preprint, arXiv, 12 marca 2018 r. https://doi.org/10.48550/arXiv.1803.04173. 

Li, Haoyuan, Hao Jiang, Tao Jin, et al. "DATE: Domain Adaptive Product Seeker for E-Commerce". arXiv:2304.03669. Preprint, arXiv, 7 kwietnia 2023 r. https://doi.org/10.48550/arXiv.2304.03669. 

Mirsky, Yisroel, Ambra Demontis, Jaidip Kotak, et al. "Zagrożenie ofensywnym AI dla organizacji". Komputery i bezpieczeństwo 124 (styczeń 2023): 103006. https://doi.org/10.1016/j.cose.2022.103006. 

Piplai, Aritran, Sai Sree Laya Chukkapalli i Anupam Joshi. 'NAttack! Adversarial Attacks to Bypass a GAN Based Classifier Trained to Detect Network Intrusion". 2020 IEEE 6th Intl Conference on Big Data Security on Cloud (BigDataSecurity), IEEE Intl Conference on High Performance and Smart Computing, (HPSC) oraz IEEE Intl Conference on Intelligent Data and Security (IDS), maj 2020, 49-54. https://doi.org/10.1109/BigDataSecurity-HPSC-IDS49724.2020.00020. 

"Polimorficzne złośliwe oprogramowanie AI: A Real-World POC and Detection Walkthrough - CardinalOps". Dostęp 19 września 2025. https://cardinalops.com/blog/polymorphic-ai-malware-detection/. 

Rid, Thomas. "The Lies Russia Tells Itself" ("Kłamstwa, które opowiada sobie Rosja"). Sprawy zagraniczne, 30 września 2024 r. https://www.foreignaffairs.com/united-states/lies-russia-tells-itself. 

"Rs 938 Crore Lost to Cybercrooks since Jan | Bengaluru News - Times of India". Dostęp 22 września 2025. https://timesofindia.indiatimes.com/city/bengaluru/rs-938-crore-lost-to-cybercrooks-since-jan/articleshow/122075324.cms. 

Schröer, Saskia Laura, Luca Pajola, Alberto Castagnaro, Giovanni Apruzzese i Mauro Conti. "Wykorzystywanie AI do ataków: On the Interplay between Adversarial AI and Offensive AI". arXiv:2506.12519. Wersja 1. Preprint, arXiv, 14 czerwca 2025 r. https://doi.org/10.48550/arXiv.2506.12519. 

Sewak, Mohit, Sanjay K. Sahay i Hemant Rathore. 'ADVERSARIALuscator: An Adversarial-DRL Based Obfuscator and Metamorphic Malware SwarmGenerator". 2021 Międzynarodowa wspólna konferencja na temat sieci neuronowych (IJCNN), 18 lipca 2021, 1-9. https://doi.org/10.1109/IJCNN52387.2021.9534016. 

Temara, Sheetal. "Maximizing Penetration Testing Success with Effective Reconnaissance Techniques Using ChatGPT". arXiv:2307.06391. Preprint, arXiv, 20 marca 2023 r. https://doi.org/10.48550/arXiv.2307.06391. 

Townsend, Kevin. "AI-Generated Malware Found in the Wild". SecurityWeek, 24 września 2024 r. https://www.securityweek.com/ai-generated-malware-found-in-the-wild/. 

Yamin, Muhammad Mudassar, Mohib Ullah, Habib Ullah i Basel Katt. "Uzbrojony AI do cyberataków". Journal of Information Security and Applications 57 (marzec 2021): 102722. https://doi.org/10.1016/j.jisa.2020.102722. 

Yang, Kai-Cheng, Danishjeet Singh i Filippo Menczer. "Charakterystyka i rozpowszechnienie fałszywych profili w mediach społecznościowych z twarzami wygenerowanymi przez AI". Journal of Online Trust and Safety 2, no. 4 (2024). https://doi.org/10.54501/jots.v2i4.197. 

Yu, Jingru, Yi Yu, Xuhong Wang, et al. "Cień oszustwa: The Emerging Danger of AI-Powered Social Engineering and Its Possible Cure". arXiv:2407.15912. Preprint, arXiv, 22 lipca 2024 r. https://doi.org/10.48550/arXiv.2407.15912. 

Dziękujemy za zapisanie się do naszego newslettera!

Dziękujemy! Otrzymano RSVP dla AI w cyberprzestępstwie

AI w cyberprzestępstwie

Ładowanie...

Ładowanie...