AI w cyberprzestępczości
Jak AI zmienia łańcuch cyberzabójców
Ofensywne operacje cybernetyczne to celowe działania prowadzone w cyberprzestrzeni w celu infiltracji, zakłócania lub niszczenia systemów przeciwnika w dążeniu do osiągnięcia celów strategicznych. Są one powszechnie określane jako Cyber Kill Chain, struktura pierwotnie opracowana przez Lockheed Martin. Ramy te dzielą atak na uporządkowaną sekwencję faz, śledząc postępy przeciwnika od początkowego rozpoznania do ostatecznych działań podjętych w celu osiągnięcia celów (np. eksfiltracji lub zniszczenia danych).
2
2
Uzbrojenie
Łączenie exploita z backdoorem w dostarczalny ładunek
Dostawa
Dostarczanie uzbrojonego pakietu do ofiary za pośrednictwem poczty e-mail, Internetu, USB itp.
3
3
4
4
Eksploatacja
Wykorzystanie luki w zabezpieczeniach w celu wykonania kodu w systemie ofiary
Instalacja
Instalowanie złośliwego oprogramowania na zasobie
5
5
6
6
Dowodzenie i kontrola (C2)
Kanał poleceń do zdalnej manipulacji ofiarą
Działania dotyczące celów
Dzięki dostępowi "Hands on Keyboard" intruzi osiągają swoje pierwotne cele
7
7
W ostatnich latach ofensywne operacje cybernetyczne nasiliły się zarówno pod względem ilości, jak i złożoności. Globalne cyberataki nie tylko gwałtownie rosną, ale także różnicują się pod względem rodzajuw 2022 roku, 27% globalnych cyberataków było opartych na wymuszeniach, 21% obejmowało backdoory, a 17% ransomware.. Sztuczna inteligencja (AI) odgrywa główną rolę w tej eskalacji i dywersyfikacji, umożliwiając nowe formy ataków, takie jak deepfake lub swarm malware, jednocześnie wzmacniając tradycyjne wektory, takie jak phishing lub wykorzystywanie luk w zabezpieczeniach. Według Globalne badanie dyrektorów finansowych85% specjalistów ds. cyberbezpieczeństwa przypisuje wzrost liczby ataków uzbrojeniu generatywnego AI. W indyjskim mieście Bengaluru raport państwowy potwierdził ten trend: na początku 2025 r. 80% wiadomości phishingowych zostało wygenerowanych przez AI.
AI przekształca sam łańcuch cyberzabójców i ma następujące możliwości potencjał do doładowania każdego etapu ofensywnych kampanii cybernetycznych. Szybkość i skala, z jaką AI przekształca ten łańcuch, stała się pilną kwestią bezpieczeństwa narodowego.
Ten zestaw narzędzi koncentruje się w szczególności na AI jako czynniku umożliwiającym atak, badając, w jaki sposób przekształca on różne etapy łańcucha cyberzabójców.
Rozpoznanie
Atakujący zbiera informacje o celu, takie jak dane pracowników, e-maile lub dane systemowe, aby zaplanować atak.
Jak AI zmienia rekonesans:
Wyróżniony przypadek: ChatGPT jako asystent rozpoznania
W 2024 r, badacz cyberbezpieczeństwa Sheetal Tamara opublikowała artykuł pokazujący, w jaki sposób duże modele językowe, takie jak ChatGPT, mogą znacznie przyspieszyć fazę rozpoznawczą ataku. Zamiast spędzać godziny na pisaniu skryptów i ręcznym zbieraniu danych wywiadowczych z otwartego źródła, badacz wykorzystał krótką serię podpowiedzi konwersacyjnych, na przykład: "Wymień wszystkie subdomeny, które możesz znaleźć dla examplecompany.com", "Podsumuj topologię sieci firmy na podstawie publicznie dostępnych informacji" oraz "Określ, jakie systemy operacyjne i usługi są najprawdopodobniej uruchomione na tych serwerach".
W ciągu kilku minut model wygenerował przydatne materiały rozpoznawcze, w tym:
- lista domen i subdomen powiązanych z firmą docelową
- prawdopodobne zakresy adresów IP
- uwagi dotyczące konfiguracji SSL/TLS, potencjalnych otwartych portów i popularnych usług
- publiczne informacje o pracownikach (z LinkedIn i komunikatów prasowych), które mogłyby zostać wykorzystane do spear-phishingu.
Tam, gdzie zbieranie OSINT normalnie wymagałoby godzin lub dni ręcznej pracy, eksperyment ograniczył zadanie do konwersacyjnego przepływu pracy, który wymagał znacznie mniejszej wiedzy technicznej. Badanie podkreśla zatem, w jaki sposób modele generatywne mogą obniżyć barierę dla zautomatyzowanego rozpoznania, z wyraźnymi implikacjami dla praktyki obronnej i modelowania zagrożeń.
-
Zautomatyzowane narzędzia skanujące - "Weaponizing AI in Cyberattacks A Comparative Study of AI powered Tools for Offensive Security" (Annis & Hamoudeh 2025).
Badanie porównawcze pokazuje, jak zautomatyzowane narzędzia (np. WebCopilot, Sublist3r, RustScan+Nmap) przyspieszają skanowanie sieci i wyliczanie subdomen. Wyniki podkreślają, w jaki sposób AI może dalej automatyzować zadania ofensywne, takie jak symulowanie scenariuszy ataków i dynamiczne dostosowywanie się do obrony, torując drogę do w pełni zautomatyzowanych ofensywnych operacji bezpieczeństwa. -
Narzędzia AI do rozpoznania - "Zagrożenie dla organizacji ze strony ofensywnego AI" (Mirsky et al. 2023)
W badaniu wyróżniono 32 ofensywne narzędzia AI wykorzystujące głębokie uczenie, uczenie ze wzmocnieniem i NLP do automatyzacji wykrywania punktów wejścia, budowania persony i wyboru celu. Narzędzia te poprawiają OSINT, umożliwiają realistyczne podrabianie phishingu i pozwalają nawet niedoświadczonym atakującym planować i uruchamiać bardziej skuteczne kampanie. -
Zbieranie informacji i automatyczne wykorzystywanie - "Uzbrojony AI do cyberataków" (Yamin et al. 2021)
W badaniu przeanalizowano niedawne cyberataki wykorzystujące techniki oparte na AI i zidentyfikowano odpowiednie strategie łagodzenia skutków. Podkreśla różne narzędzia AI (np. GyoiThon, Deep Exploit), które mogą pomóc w gromadzeniu danych o systemie, możliwych celach i środkach obrony.
Uzbrojenie
Atakujący wykorzystuje informacje odkryte podczas rekonesansu, aby zbudować lub dostosować złośliwy ładunek (np. złośliwe oprogramowanie lub exploity) i wykorzystać słabości celu.
Jak AI zmienia uzbrojenie:
AI usprawnia tworzenie i dostrajanie złośliwych ładunków poprzez generowanie lub modyfikowanie kodu oraz testowanie wariantów pod kątem modeli wykrywania. W ten sposób można tworzyć bardziej dyskretne, adaptacyjne i ukierunkowane ładunki, w tym warianty polimorficzne, które zmieniają swój wygląd przy każdym wykonaniu. Testy kontradyktoryjności mogą być wykorzystywane do udoskonalania ładunków przed ich wdrożeniem.
Wyróżniony przypadek: Złośliwe oprogramowanie typu dropper generowane przez AI na wolności
W 2024 r, analitycy cyberbezpieczeństwa zidentyfikowała kampanię phishingową, która początkowo wydawała się rutynowa: seria wiadomości e-mail dystrybuujących konwencjonalny ładunek złośliwego oprogramowania. Jednak bliższa inspekcja droppera (tj. małego programu odpowiedzialnego za instalację i aktywację głównego złośliwego oprogramowania) ujawniła niezwykłą cechę.
Struktura i składnia droppera wskazywały, że został on wygenerowany przez duży model językowy, a nie napisany przez ludzkiego programistę. Chociaż działał jako prosty wrapper, dropper wyprodukowany przez AI był zarówno dopracowany, jak i skuteczny, demonstrując zdolność do unikania tradycyjnych metod wykrywania. Z powodzeniem omijał podstawowe sygnatury antywirusowe i dostarczał złośliwe oprogramowanie zgodnie z przeznaczeniem.
Odkrycie to było godne uwagi jako jeden z pierwszych potwierdzonych przypadków wdrożenia na wolności złośliwego kodu wygenerowanego przez AI. Chociaż złośliwe oprogramowanie nie było nowością, outsourcing części procesu uzbrojenia do AI oznaczał znaczący rozwój. Pokazało to, w jaki sposób atakujący mogą skalować operacje, zmniejszać koszty rozwoju i szybciej się dostosowywać, jednocześnie komplikując wykrywanie i reagowanie.
-
Złośliwe oprogramowanie polimorficzne z rozszerzeniem AI - "Polimorficzne złośliwe oprogramowanie AI: A Real-World POC and Detection Walkthrough" (Itkin 2025)
W artykule zaproponowano dowód koncepcji polimorficznego złośliwego oprogramowania opartego na AI, dynamicznie przepisującego swój kod w czasie wykonywania, aby uniknąć wykrycia, zbudowanego jako keylogger, który generuje zaciemnione ładunki na wykonanie. -
Duże modele językowe do generowania kodu - "Duże modele językowe do generowania kodu: A Comprehensive Survey of Challenges, Techniques, Evaluation, and Applications" (Huynh & Lin 2025)
Badanie pokazuje, w jaki sposób LLM (np. CodeLlama, Copilot) mogą automatycznie generować kod wykonywalny z języka naturalnego, obniżając barierę dla tworzenia złośliwego oprogramowania, rozwoju exploitów i adaptacji ładunków przez atakujących. -
Nowe techniki zaciemniania wygenerowane przez AI - "ADVERSARIALuscator: An Adversarial-DRL Based Obfuscator and Metamorphic Malware SwarmGenerator" (Sewak et al. 2021)
Artykuł przedstawia ADVERSARIALuscator, AI, który może automatycznie przepisywać kod złośliwego oprogramowania, aby tworzyć wiele wersji i za każdym razem wyglądać inaczej, aby uniknąć wykrycia przez systemy bezpieczeństwa. W testach około jedna trzecia tych wariantów była w stanie ominąć zaawansowane systemy bezpieczeństwa. -
Złośliwe oprogramowanie "kodujące wibracje" oparte na AI - "Hakerzy wykorzystują AI do analizowania raportów wywiadowczych dotyczących zagrożeń i złośliwego oprogramowania typu 'vibe code'" (Kelly 2025)
W tym artykule badacze bezpieczeństwa poinformowali, że hakerzy używają generatywnego AI do czytania i interpretowania raportów wywiadowczych dotyczących zagrożeń, a następnie automatycznie tworzą działające złośliwe oprogramowanie. Technika ta, nazwana "kodowaniem wibracyjnym", przekłada analizy czytelne dla człowieka na kod, umożliwiając przeciwnikom szybkie wykorzystanie publicznych badań nad cyberbezpieczeństwem w exploitach.
Dostawa
Atakujący przeprowadza atak, przesyłając złośliwy ładunek do celu, często za pośrednictwem wiadomości phishingowych, fałszywych stron internetowych lub niezabezpieczonych sieci.
Jak AI zmienia dostawę:
AI dostosowuje i synchronizuje mechanizmy dostarczania, aby zmaksymalizować sukces. Automatyzuje generowanie przekonujących treści phishingowych, deepfake'ów w czasie rzeczywistym, adaptacyjnych interakcji na czacie i realistycznych fałszywych stron internetowych, a także wykorzystuje dane rozpoznawcze, aby wybrać optymalny moment i kanał dostawy. Zmniejsza to zapotrzebowanie na ludzkie umiejętności w realizacji kampanii.
Wyróżniona sprawa: Oszustwo Deepfake CEO w firmie Arup
W 2024 r. pracownicy Brytyjska firma inżynieryjna Arup otrzymał połączenie wideo, które wyglądało na legalne, od regionalnego dyrektora generalnego. Dyrektor pilnie zażądał przelewu środków w związku z poufną transakcją. Osoba na ekranie odwzorowywała wygląd, głos i maniery dyrektora generalnego z niezwykłą dokładnością.
W rzeczywistości dzwoniący nie był dyrektorem, ale fałszywą osobą wygenerowaną przez AI, zaprojektowaną do naśladowania go w czasie rzeczywistym. Przekonani o autentyczności interakcji, pracownicy autoryzowali sekwencję przelewów na kwotę prawie 25 milionów dolarów.
Incydent ten jest jednym z największych zgłoszonych przypadków inżynierii społecznej z wykorzystaniem AI podczas fazy dostarczania cyberataku. Pokazuje on, że phishing nie musi już polegać na źle spreparowanych wiadomościach e-mail lub wątpliwych linkach. Zamiast tego, AI umożliwia teraz wdrażanie wysoce realistycznych podróbek audio i wideo, które omijają nie tylko kontrole techniczne, ale także ludzką ocenę i zaufanie.
-
LLM dla inżynierii społecznej i phishingu na dużą skalę - "Badanie LLM pod kątem wykrywania złośliwego oprogramowania: Przegląd, projektowanie ram i podejścia do środków zaradczych" (Al-Karaki & Khan 2024)
W artykule opisano, w jaki sposób LLM mogą być wykorzystywane do automatyzacji treści phishingowych, generowania polimorficznego złośliwego oprogramowania i tworzenia danych wejściowych przeciwników. -
Inżynieria społeczna oparta na AI - "Cień oszustwa: Pojawiające się niebezpieczeństwo inżynierii społecznej opartej na AI i jej możliwe lekarstwo" (Yu et al. 2024)
Badanie pokazuje, w jaki sposób modele dyfuzji i LLM sprawiają, że phishing i podszywanie się są bardziej spersonalizowane i przekonujące. Kategoryzuje inżynierię społeczną opartą na AI na "fazy 3E" (Enlarging, Enriching, Emerging), podkreślając, w jaki sposób atakujący mogą skalować kampanie, wprowadzać nowe wektory i wykorzystywać nowe zagrożenia, zwiększając skuteczność dostarczania złośliwych ładunków. -
Oszustwa głosowe / phishing generowane przez AI - "Oszukałem swój bank" (Hoover 2025)
Eksperyment dziennikarski, który ujawnia wygenerowany przez AI fałszywy głos używany do wyłudzania kont bankowych.
Eksploatacja
Atakujący uruchamia ładunek w celu wykorzystania luki w zabezpieczeniach i uzyskania nieautoryzowanego dostępu do systemu docelowego. Po infiltracji organizacji atakujący wykorzystuje ten dostęp do przemieszczania się między systemami w celu znalezienia odpowiednich informacji (np. wrażliwych danych, dodatkowych luk w zabezpieczeniach, serwerów poczty e-mail itp.
Jak AI zmienia wykorzystanie:
AI pomaga atakującym w identyfikacji, zrozumieniu i wykorzystaniu słabości systemu poprzez automatyzację wykrywania luk (na przykład inteligentny fuzzing i skanowanie sterowane), konstruowanie drzew ataków i proponowanie ścieżek eksploatacji. Może również generować przeciwne dane wejściowe, które omijają narzędzia bezpieczeństwa lub wykorzystują mechanizmy obronne.
Wyróżniony przypadek: Robak Morris II AI
W 2024 r, badacze zademonstrował nową formę samorozprzestrzeniającego się robaka, który nie polegał na wykorzystywaniu konwencjonalnych luk w oprogramowaniu. Zamiast tego atakował on same systemy generacyjne AI.
Nazwany Morris II W nawiązaniu do osławionego robaka Morrisa z 1988 roku, ten sprawdzony atak wykorzystywał podpowiedzi przeciwników do manipulowania modelami AI w celu powielania i rozpowszechniania złośliwych instrukcji. Po "zainfekowaniu" systemu robak mógł autonomicznie generować dalsze podpowiedzi, które skłaniały AI do powielenia ataku i przekazania go innym modelom.
W przeciwieństwie do tradycyjnych robaków, które zazwyczaj wykorzystują niezaktualizowany kod, Morris II poprzez wykorzystanie otwartości i nieprzewidywalności generatywnego zachowania AI. Demonstracja podkreśliła, że w miarę jak organizacje coraz częściej osadzają generatywny AI w operacyjnych przepływach pracy, mogą one ujawniać nowe powierzchnie ataku, w których podatność na ataki nie leży w kodzie źródłowym, ale w danych szkoleniowych i odpowiedziach modelu.
-
Sprzeczne i ofensywne AI - "Wykorzystywanie AI do ataków: On the Interplay between Adversarial AI and Offensive AI" (Shröer & Pajola 2025)
W badaniu przedstawiono, w jaki sposób atakujący mogą wykorzystywać luki w systemach AI za pomocą danych wejściowych przeciwnika lub uzbroić sam AI, aby uruchomić bardziej skuteczne exploity przeciwko tradycyjnym celom, podkreślając podwójną rolę AI zarówno jako narzędzia, jak i celu cyberataków. -
Pliki binarne złośliwego oprogramowania - "Adversarial Malware Binaries: Unikanie głębokiego uczenia w celu wykrywania złośliwego oprogramowania w plikach wykonywalnych" (Kolosnjarski et al. 2018)
Badanie pokazuje ataki oparte na gradiencie, które modyfikują mniej niż 1% bajtów w plikach wykonywalnych przy jednoczesnym zachowaniu funkcjonalności, skutecznie omijając głęboko uczące się wykrywacze złośliwego oprogramowania wyszkolone na surowych bajtach.
Instalacja
Atakujący instaluje złośliwe oprogramowanie lub backdoory, aby utrzymać (ukryty) stały dostęp i kontrolę w systemie docelowym.
Jak AI zmienia instalację:
AI może tworzyć adaptacyjne techniki trwałości i sugerować najskuteczniejsze wektory instalacji poprzez analizę danych z poprzednich etapów, ale pełna automatyzacja niuansowej, wymagającej podejmowania decyzji fazy instalacji pozostaje ograniczona. Tam, gdzie jest stosowany, AI umożliwia złośliwemu oprogramowaniu modyfikowanie zachowania w celu uniknięcia wykrycia i wybrania optymalnego czasu i punktów wejścia.
Wyróżniony przypadek: Ransomware, które uczy się ukrywać
W 2024 r, badacze wprowadził system znany jako EGANmodel AI opracowany w celu zbadania, w jaki sposób oprogramowanie ransomware może wykorzystywać strategie uczenia się w celu uniknięcia wykrycia. W przeciwieństwie do tradycyjnego statycznego złośliwego oprogramowania, które jest albo identyfikowane, albo pomijane, EGAN obsługiwane przez iteracyjne eksperymenty.
System wielokrotnie modyfikował kod ransomware, testując kolejne warianty, aż stworzył taki, który mógł ominąć zabezpieczenia antywirusowe, zachowując pełną funkcjonalność. W efekcie złośliwe oprogramowanie "nauczyło się", jak omijać mechanizmy wykrywania anomalii, które zwykle skutecznie identyfikują podejrzane zachowania.
Chociaż stworzone w środowisku badawczym, EGAN zademonstrował, w jaki sposób mechanizmy trwałości oparte na AI mogą sprawić, że oprogramowanie ransomware będzie znacznie trudniejsze do wykrycia i wyeliminowania po wdrożeniu. Zamiast polegać na predefiniowanych technikach unikania, złośliwe oprogramowanie dostosowywało się dynamicznie, podnosząc perspektywę niemal "niemożliwego do zabicia" złośliwego oprogramowania.
-
Unikanie złośliwego oprogramowania oparte na RL - "Learning to Evade Static PE Machine Learning Malware Models via Reinforcement Learning" (Anderson i in. 2018)
Badanie pokazuje, w jaki sposób agenci uczący się ze wzmocnieniem mogą iteracyjnie modyfikować złośliwe oprogramowanie Windows PE za pomocą zmian zachowujących funkcjonalność, aby uniknąć statycznych wykrywaczy złośliwego oprogramowania uczących się maszynowo, umożliwiając w pełni czarną skrzynkę, adaptacyjną instalację trwałego złośliwego oprogramowania.
Dowodzenie i kontrola
Po przejęciu kontroli nad wieloma systemami, atakujący tworzy centrum kontroli w celu ich zdalnego wykorzystania. Atakujący nawiązuje zdalną komunikację z zaatakowanym systemem za pośrednictwem różnych kanałów (np. WWW, DNS lub e-mail), aby kontrolować operacje i uniknąć wykrycia. Atakujący wykorzystuje różne techniki, takie jak zaciemnianie, aby zatrzeć ślady i uniknąć wykrycia, lub ataki typu "odmowa usługi" (DoS), aby odwrócić uwagę specjalistów ds. bezpieczeństwa od swoich prawdziwych celów.
Jak AI zmienia dowodzenie i kontrolę (C2):
AI umożliwia bardziej ukrytą komunikację C2 poprzez generowanie ruchu, który naśladuje legalną aktywność, projektowanie unikalnych algorytmów generowania domen i organizowanie zdecentralizowanych, adaptacyjnych botnetów. Może również dostosowywać zachowanie C2 w celu uniknięcia wykrywaczy anomalii.
Wyróżnione przypadki: Skoordynowane botnety AI, roje z własnym umysłem
W 2023 r, badacze zademonstrowała nową formę botnetu zasilanego przez AI. Konwencjonalne botnety zazwyczaj opierają się na centralnym serwerze dowodzenia i kontroli (C2), za pośrednictwem którego pojedyncze centrum wydaje instrukcje, które następnie wykonują zainfekowane maszyny lub "boty". Architekturę tę można jednak często zakłócić, gdy obrońcy zidentyfikują i wyłączą centralny serwer.
Botnet obsługujący AI przyjął inny model. Każdy węzeł w sieci stosował uczenie ze wzmocnieniem, aby autonomicznie określić, kiedy zainicjować ataki, które cele realizować i jak dostosować taktykę w odpowiedzi na środki obronne. Zamiast czekać na scentralizowane instrukcje, boty współpracowały w sposób zdecentralizowany, funkcjonując jako forma samoorganizującego się roju.
Taka konstrukcja sprawiała, że botnet był bardziej odporny i trudniejszy do wykrycia. Nawet jeśli niektóre węzły zostały zneutralizowane, pozostałe mogły się dostosować i kontynuować działanie. Dla obrońców zadanie nie ograniczało się już do zakłócania pracy pojedynczego serwera, ale wymagało przeciwdziałania rozproszonemu, adaptacyjnemu rojowi zainfekowanych maszyn.
-
Ukrycie śladów i manipulacja logami w oparciu o AI - "5 technik anty-forensics do oszukiwania śledczych (+ przykłady i wskazówki dotyczące wykrywania)" (CyberJunkie 2023)
Raporty z lat 2024-2025 opisywały, w jaki sposób AI może być wykorzystywany do usuwania lub zmieniania cyfrowych dzienników w celu ukrycia ataków przed śledczymi, chociaż pełne przykłady w świecie rzeczywistym są nadal rzadkie. -
Obejście sieciowych systemów wykrywania włamań opartych na GAN - "NAttack! Adversarial Attacks to bypass a GAN based classifier trained to detect Network intrusion" (Piplai et al. 2020)
Badanie pokazuje, w jaki sposób ataki przeciwników mogą skutecznie omijać systemy wykrywania włamań wyszkolone przez GAN, umożliwiając atakującym ukrywanie ruchu C2 jako normalnej aktywności sieciowej.
Działania związane z celami
Atakujący realizuje swój ostateczny cel, taki jak eksfiltracja danych, szyfrowanie danych lub zniszczenie danych.
Jak AI zmienia działania w zakresie celów:
AI przyspiesza i udoskonala końcowe zadania ataku: zautomatyzowaną eksfiltrację danych, priorytetyzację zasobów o wysokiej wartości, dostosowane wiadomości wymuszające i generowanie treści na dużą skalę w celu dezinformacji lub zakłóceń. Ostateczne decyzje strategiczne często nadal wymagają ludzkiego osądu, ale AI skraca drogę do ich podjęcia.
Wyróżniony przypadek: PromptLocker, orkiestracja ransomware oparta na AI
W 2024 r, naukowcy z Uniwersytetu Nowojorskiego przedstawili PromptLockerto sprawdzony system ransomware kontrolowany przez duży model językowy. W przeciwieństwie do konwencjonalnego oprogramowania ransomware, które podąża za predefiniowanymi zachowaniami, PromptLocker podejmował decyzje w czasie rzeczywistym i automatyzował wiele etapów cyklu życia ataku. Podczas demonstracji model działał autonomicznie:
- wybrał najbardziej wartościowe cele w zaatakowanym systemie,
- eksfiltrował poufne dane przed zaszyfrowaniem, zwiększając przewagę nad ofiarami,
- zaszyfrowane woluminy i pliki w celu odmowy dostępu
- generował dostosowane noty okupu, dostosowując ton i żądania do profilu ofiary (na przykład możliwości finansowych i sektora).
Chociaż praca została przeprowadzona w kontrolowanym środowisku badawczym, PromptLocker zilustrował, w jaki sposób generatywny AI może zautomatyzować i skalować zadania, które wcześniej wymagały ludzkiego planowania, przyspieszając w ten sposób zdolność atakujących do osiągania swoich celów i dostosowywania się do zmieniających się okoliczności.
-
Dezinformacja generowana przez AI na dużą skalę - "Prorosyjska kampania dezinformacyjna wykorzystuje darmowe narzędzia AI do napędzania eksplozji treści" (Gilbert 2025)
W artykule wyjaśniono, w jaki sposób powiązana z Rosją kampania Operation Overload (2023-2025) wykorzystuje narzędzia AI do masowej produkcji fałszywych zdjęć, filmów i sklonowanych głosów osób publicznych. Materiały te są szeroko rozpowszechniane za pośrednictwem sieci botów w mediach społecznościowych w celu promowania dzielących narracji. -
Fałszywe profile społecznościowe stworzone przez AI w celu wzmocnienia - "Charakterystyka i rozpowszechnienie fałszywych profili w mediach społecznościowych z twarzami wygenerowanymi przez AI" (Yang et al. 2024)
Dochodzenie wykazało ponad 1400 kont na Twitterze korzystających ze zdjęć profilowych wygenerowanych przez AI, zorganizowanych w sieci w celu promowania oszustw i wiadomości o charakterze politycznym, z tysiącami takich kont aktywnych codziennie. -
Stworzone przez AI fałszywe dokumenty i serwisy informacyjne (psyops) - "Kłamstwa, które wmawia sobie Rosja Propagandyści tego kraju celują w Zachód, ale wprowadzają w błąd również Kreml" (Rid 2024)
Artykuł wyjaśnia, w jaki sposób trwająca kampania Doppelgänger tworzy przekonujące fałszywe wersje legalnych witryn informacyjnych i publikuje artykuły wygenerowane przez AI w celu promowania prorosyjskich narracji na Zachodzie.
Pytania do dyskusji
- Który etap łańcucha cyberzabójców może zostać najbardziej przekształcony przez AI w przyszłości i dlaczego? A obecnie, na którym etapie AI zapewnia najbardziej obiecujące wyniki dla atakujących? Na którym etapie wdrożenie AI wydaje się mniej skuteczne i obiecujące?
- Czy AI przechyla przewagę w cyberprzestrzeni bardziej w stronę atakujących czy obrońców?
- Czy powszechny dostęp do AI wyrówna szanse amatorów, czy też wzmocni pozycję dobrze wyposażonych przeciwników?
- W jaki sposób zdolność AI do automatyzacji i przyspieszenia łańcucha cyberzabójców zmienia charakter cyberataków?
- Czy AI może sprawić, że ataki będą tak szybkie i adaptacyjne, że tradycyjne ramy obronne staną się przestarzałe?
- Kto ponosi odpowiedzialność, gdy modele AI są niewłaściwie wykorzystywane do cyberataków: deweloperzy, wdrożeniowcy czy atakujący?
- W jaki sposób decydenci mogą regulować ofensywny AI bez tłumienia innowacji w zastosowaniach obronnych lub cywilnych?
- Czy AI popchnie cyberkonflikt w kierunku bardziej autonomicznych działań wojennych "maszyna na maszynie"?
- Czy AI może zasadniczo zmienić model cybernetycznego łańcucha zabójstw w coś nieliniowego i stale adaptacyjnego?