AI у сфері кіберзлочинності
Як AI змінює кібернетичний ланцюжок вбивств
Наступальні кібероперації - це цілеспрямовані дії, що проводяться в кіберпросторі з метою проникнення, порушення або знищення систем супротивника для досягнення стратегічних цілей. Зазвичай вони проводяться за допомогою Кібер-ланцюг вбивствконцепція, розроблена компанією Lockheed Martin. Вона розбиває атаку на структуровану послідовність етапів, відстежуючи прогрес супротивника від початкової розвідки до остаточних дій, спрямованих на досягнення цілей (наприклад, витік даних або їх знищення).
2
2
Озброєння
Поєднання експлойту з бекдором у корисному вантажі, що доставляється
Доставка
Передача жертві пакета зі зброєю електронною поштою, через Інтернет, USB тощо.
3
3
4
4
Експлуатація
Використання уразливості для виконання коду в системі жертви
Встановлення
Встановлення шкідливого програмного забезпечення на актив
5
5
6
6
Командування та управління (C2)
Командний канал для дистанційного маніпулювання жертвою
Дії по досягненню цілей
З доступом "Руки на клавіатурі" зловмисники досягають своїх початкових цілей
7
7
Останніми роками наступальні кібероперації зросли як за обсягом, так і за складністю. Глобальні кібератаки не лише різко зростають, але й урізноманітнюються за типамиу 2022 році, 27% глобальних кібератак були здирницькими, 21% - з використанням бекдорів, а 17% - з використанням програм-вимагачів. Штучний інтелект (AI) відіграє важливу роль у цій ескалації та диверсифікації, уможливлюючи нові форми атак, такі як глибокі підробки або ройові шкідливі програми, одночасно посилюючи традиційні вектори, такі як фішинг або використання вразливостей. За даними Глобальне опитування фінансових директорів85% фахівців з кібербезпеки пов'язують зростання кількості атак із взяттям на озброєння нового покоління AI. У Бенгалуру, Індія, в державний звіт підтвердило цю тенденцію: на початок 2025 року 80% фішингових листів були згенеровані AI.
AI трансформує сам кібер-ланцюг вбивств і має на меті потенціал для посилення кожного етапу наступальних кібер-кампаній. Швидкість і масштаби, з якими AI змінює цей ланцюг, стали нагальною проблемою національної безпеки.
Цей посібник зосереджується саме на AI як засобі здійснення атаки, досліджуючи, як він трансформує різні етапи кібер-ланцюга вбивств.
Розвідка
Зловмисник збирає інформацію про ціль, наприклад, дані про співробітників, електронну пошту або системні дані, щоб спланувати атаку.
Як 1ТП4Т змінює розвідку:
Випадок висвітлено: ChatGPT як помічник розвідки
У 2024 році, дослідниця з кібербезпеки Шиталь Тамара опублікував статтю, яка демонструє, як великі мовні моделі, такі як ChatGPT, можуть значно прискорити фазу розвідки атаки. Замість того, щоб годинами писати скрипти і вручну збирати розвідувальну інформацію з відкритих джерел, дослідник використовував коротку серію розмовних підказок, наприклад: "Перерахуйте всі субдомени, які ви можете знайти для, наприклад, company.com", "Підсумуйте топологію мережі компанії на основі загальнодоступної інформації" і "Визначте, які операційні системи і служби, швидше за все, працюють на цих серверах".
За лічені хвилини модель видала корисний розвідувальний матеріал, зокрема:
- список доменів і піддоменів, пов'язаних з цільовою компанією
- ймовірні діапазони IP-адрес
- примітки щодо конфігурацій SSL/TLS, потенційних відкритих портів та загальних сервісів
- інформація про державних службовців (з LinkedIn та прес-релізів), яка може бути використана для шпигунського фішингу.
Там, де збір OSINT-інформації зазвичай вимагає годин або днів ручної роботи, експеримент звів завдання до діалогового робочого процесу, який вимагає набагато менше технічних знань. Таким чином, дослідження підкреслює, як генеративні моделі можуть знизити бар'єр для автоматизованої розвідки, з чіткими наслідками для оборонної практики і моделювання загроз.
-
Автоматизовані інструменти для сканування - "Використання AI в кібератаках: порівняльне дослідження інструментів на базі AI для наступальної безпеки" (Annis & Hamoudeh 2025)
Порівняльне дослідження показує, як автоматизовані інструменти (наприклад, WebCopilot, Sublist3r, RustScan+Nmap) прискорюють сканування мережі та перерахування субдоменів. Результати показують, як AI може ще більше автоматизувати наступальні завдання, такі як моделювання сценаріїв атак і динамічна адаптація до засобів захисту, прокладаючи шлях до повністю автоматизованих наступальних операцій з безпеки. -
AI інструменти для розвідки - "Загроза наступу AI на організації" (Мирський та ін. 2023)
У дослідженні висвітлено 32 наступальні інструменти AI, що використовують глибоке навчання, навчання з підкріпленням та НЛП для автоматизації виявлення точок входу, створення персонажів та вибору цілей. Ці інструменти вдосконалюють OSINT, дозволяють створювати реалістичні глибокі підробки для фішингу і дозволяють навіть недосвідченим зловмисникам планувати і запускати більш ефективні кампанії. -
Збір інформації та автоматичне використання - "Озброєний AI для кібератак" (Ямін та ін., 2021)
У дослідженні проаналізовано нещодавні кібератаки, які використовували методи на основі AI, та визначено відповідні стратегії пом'якшення наслідків. У ньому висвітлюються різні інструменти AI (наприклад, GyoiThon, Deep Exploit), які можуть допомогти зібрати дані про систему, можливі цілі та заходи захисту.
Озброєння
Зловмисник використовує інформацію, виявлену під час розвідки, щоб створити або налаштувати шкідливе корисне навантаження (наприклад, шкідливе програмне забезпечення або експлойти) і використати слабкі місця цілі.
Як AI змінює озброєння:
AI спрощує створення та налаштування шкідливих програм шляхом генерації або модифікації коду та тестування варіантів за допомогою моделей виявлення. Це дозволяє створювати більш непомітні, адаптивні та цілеспрямовані корисні навантаження, в тому числі поліморфні варіанти, які змінюють свій вигляд при кожному виконанні. Змагальне тестування може бути використане для вдосконалення корисного навантаження перед розгортанням.
Випадок висвітлено: Дроппер шкідливого програмного забезпечення, створеного AI, у дикій природі
У 2024 році, аналітики з кібербезпеки виявили фішингову кампанію, яка спочатку здавалася звичайною: серія електронних листів, що розповсюджували звичайне шкідливе програмне забезпечення. Однак при детальному вивченні дроппера (тобто невеликої програми, що відповідає за встановлення та активацію основного шкідливого програмного забезпечення) було виявлено незвичну особливість.
Структура і синтаксис дроппера вказували на те, що він був згенерований за допомогою великої мовної моделі, а не написаний людиною-програмістом. Хоча він функціонував як проста обгортка, дроппер, створений AI, був відшліфованим і ефективним, демонструючи здатність обходити традиційні методи виявлення. Він успішно обходив основні антивірусні сигнатури і доставляв шкідливе програмне забезпечення за призначенням.
Ця знахідка стала одним з перших підтверджених випадків розгортання шкідливого коду, створеного AI, у вільному доступі. Хоча шкідливе програмне забезпечення, що лежить в його основі, не було новим, передача частини процесу створення зброї AI стала значним кроком вперед. Це продемонструвало, як зловмисники можуть масштабувати операції, зменшити витрати на розробку і швидше адаптуватися, водночас ускладнюючи зусилля з виявлення і реагування.
-
Поліморфне шкідливе програмне забезпечення з підтримкою AI - "Поліморфне шкідливе програмне забезпечення AI: Покрокова інструкція по виявленню в реальних умовах" (Іткін 2025)
У статті пропонується перевірка концепції поліморфного шкідливого програмного забезпечення на основі AI, яке динамічно переписує свій код під час виконання, щоб уникнути виявлення, побудованого як кейлоггер, що генерує приховане корисне навантаження при кожному виконанні. -
Великі мовні моделі для генерації коду - "Моделі великих мов для генерації коду: Всебічний огляд викликів, методів, оцінки та застосування" (Huynh & Lin 2025)
Дослідження показує, як LLM (наприклад, CodeLlama, Copilot) можуть автоматично генерувати виконуваний код з природної мови, знижуючи бар'єр для створення шкідливого програмного забезпечення, розробки експлойтів та адаптації корисного навантаження зловмисниками. -
Нові методи затушовування, створені AI, - "ADVERSARIALuscator: Обфускатор на основі Adversarial-DRL та метаморфічний генератор рою шкідливих програм" (Sewak et al. 2021)
У статті представлено ADVERSARIALuscator, AI, який може автоматично переписувати код шкідливого програмного забезпечення, створюючи безліч версій, які щоразу виглядають по-різному, щоб уникнути виявлення системами безпеки. У тестах близько третини цих варіантів змогли обійти найсучасніші системи безпеки. -
AI-шкідливе програмне забезпечення для "віброкодування" - "Хакери використовують AI для аналізу звітів розвідки загроз і шкідливих програм з "вібраційним кодом"" (Kelly 2025)
У цій статті дослідники безпеки повідомили, що хакери використовують генератор AI для читання та інтерпретації звітів розвідки про загрози, а потім автоматично створюють робоче шкідливе програмне забезпечення. Цей метод, що отримав назву "віброкодування", перетворює аналіз, який читається людиною, в код, що дозволяє зловмисникам швидко використовувати публічні дослідження в галузі кібербезпеки для створення експлойтів.
Доставка
Зловмисник запускає атаку, передаючи шкідливе корисне навантаження на ціль, часто через фішингові електронні листи, підроблені веб-сайти або незахищені мережі.
Як AI змінює доставку:
AI підлаштовує механізми доставки для досягнення максимального успіху. Він автоматизує створення переконливого фішингового контенту, глибоких підробок у режимі реального часу, адаптивних чатів і реалістичних шахрайських веб-сторінок, а також використовує дані розвідки для вибору оптимального моменту і каналу для доставки. Це зменшує потребу в людських навичках при проведенні кампаній.
Справа висвітлена: Шахрайство з фальшивим CEO в Arup
У 2024 році співробітники Британська інжинірингова компанія Arup отримали законний відеодзвінок від регіонального виконавчого директора, який здавався законним. Керівник терміново попросив переказати кошти у зв'язку з конфіденційною транзакцією. Людина на екрані з дивовижною точністю відтворювала зовнішність, голос і манеру поведінки генерального директора.
Насправді це був не керівник, а глибоко підроблений фейк, створений за допомогою AI, призначений для його імітації в режимі реального часу. Переконавшись у достовірності взаємодії, співробітники санкціонували низку переказів на загальну суму майже 25 мільйонів доларів США.
Цей інцидент є одним з найбільших зареєстрованих випадків соціальної інженерії з використанням AI на етапі реалізації кібератаки. Він ілюструє, що фішинг більше не повинен залежати від погано складених електронних листів або сумнівних посилань. Натомість AI дозволяє розгортати високореалістичні аудіо- та відеоімітації, які обходять не лише технічні засоби контролю, але й людські судження та довіру.
-
Магістри з соціальної інженерії та фішингу в масштабах - "Дослідження LLM для виявлення шкідливого програмного забезпечення: Огляд, розробка структури та підходи до протидії" (Al-Karaki & Khan 2024)
У статті описано, як LLM можна використовувати для автоматизації фішингового контенту, генерації поліморфного шкідливого програмного забезпечення та створення шкідливих вхідних даних. -
Соціальна інженерія на базі AI - "Тінь шахрайства: Нова небезпека соціальної інженерії на основі AI та її можливе лікування" (Yu et al. 2024)
Дослідження показує, як моделі дифузії та LLM роблять фішинг та імітацію більш персоналізованими та переконливими. У ньому соціальна інженерія з використанням AI поділяється на "фази 3E" (Enlarging, Enriching, Emerging - розширення, збагачення, поява), підкреслюючи, як зловмисники можуть масштабувати кампанії, впроваджувати нові вектори та використовувати нові загрози, роблячи доставку шкідливого корисного навантаження більш ефективною. -
Голосове шахрайство / фішинг з використанням AI - "Я ошукав свій банк" (Гувер 2025)
Журналістський експеримент, який викриває згенерований AI фальшивий голос, що використовується для шахрайства з банківськими рахунками.
Експлуатація
Зловмисник запускає корисне навантаження, щоб використати вразливість і отримати несанкціонований доступ до цільової системи. Після проникнення в організацію зловмисник використовує цей доступ для переміщення між системами в пошуках потрібної інформації (наприклад, конфіденційних даних, додаткових вразливостей, поштових серверів тощо) та нанесення шкоди організації.
Як AI змінює експлуатацію:
AI допомагає зловмисникам виявляти, розуміти та використовувати слабкі місця системи, автоматизуючи процес виявлення вразливостей (наприклад, інтелектуальний фаззінг та кероване сканування), будуючи дерева атак та пропонуючи шляхи їх використання. Він також може генерувати ворожі вхідні дані, які обходять інструменти безпеки або експлуатують засоби захисту.
Виділено випадок: Черв'як Morris II AI
У 2024 році, дослідники продемонстрував нову форму саморозповсюджуваного хробака, який не покладався на використання звичайних вразливостей у програмному забезпеченні. Замість цього він націлився на самі генеруючі системи AI.
На ім'я Морріс II Нагадуючи сумнозвісного хробака Морріса 1988 року, ця атака для перевірки концепції використовувала ворожі підказки для маніпулювання моделями AI з метою відтворення та розповсюдження шкідливих інструкцій. Після того, як система була "інфікована", хробак міг автономно генерувати подальші підказки, які спонукали AI відтворити атаку і передати її іншим моделям.
На відміну від традиційних черв'яків, які зазвичай експлуатують невиправлений код, Морріс II поширюється, використовуючи відкритість та непередбачуваність генеративної поведінки AI. Демонстрація підкреслила, що в міру того, як організації все більше впроваджують генеративні AI в операційні робочі процеси, вони можуть виявити нові поверхні атак, де вразливість полягає не у вихідному коді, а в навчальних даних і реакціях моделей.
-
Наступальні та наступальні AI - "Використання AI для атак: Про взаємодію між ворожими AI і наступальними AI" (Shröer & Pajola 2025)
У дослідженні описано, як зловмисники можуть використовувати вразливості в системах AI через вхідні дані противника або використовувати саму AI для запуску більш ефективних атак на традиційні цілі, підкреслюючи подвійну роль AI як інструменту і як цілі в кібератаках. -
Двійкові файли шкідливого програмного забезпечення. "Двійкові файли зловмисного програмного забезпечення: Ухилення від глибокого навчання для виявлення шкідливого програмного забезпечення у виконуваних файлах" (Колоснярський та ін., 2018)
Дослідження демонструє градієнтні атаки, які модифікують менше 1% байт у виконуваних файлах, зберігаючи при цьому функціональність, успішно оминаючи детектори шкідливого програмного забезпечення з глибоким навчанням, що тренуються на необроблених байтах.
Встановлення
Зловмисник встановлює шкідливе програмне забезпечення або бекдори, щоб підтримувати (прихований) постійний доступ і контроль всередині цільової системи.
Як AI змінює інсталяцію:
AI може створювати адаптивні методи персистенції та пропонувати найефективніші вектори інсталяції, аналізуючи дані попередніх етапів, але повна автоматизація нюансованого етапу інсталяції, що вимагає прийняття рішень, залишається обмеженою. У разі застосування, AI дозволяє шкідливому програмному забезпеченню змінювати поведінку, щоб уникнути виявлення, а також вибирати оптимальний час і точки входу.
Випадок висвітлено: Вимагачі, які вчаться ховатися
У 2024 році, дослідники запровадили систему, відому як ЕГАНмодель AI, розроблена для дослідження того, як програми-вимагачі можуть використовувати стратегії навчання, щоб уникнути виявлення. На відміну від традиційного статичного шкідливого програмного забезпечення, яке або виявляють, або не помічають, ЕГАН працює за допомогою ітеративних експериментів.
Система неодноразово модифікувала код програми-здирника, тестуючи послідовні варіанти, поки не створила такий, який міг обійти антивірусний захист, зберігаючи при цьому повну функціональність. По суті, шкідливе програмне забезпечення "навчилося" обходити механізми виявлення на основі аномалій, які зазвичай ефективно виявляють підозрілу поведінку.
Хоча й створений у дослідницькому середовищі, ЕГАН продемонстрував, як механізми стійкості на основі AI можуть значно ускладнити виявлення та знищення програм-вимагачів після їхнього розгортання. Замість того, щоб залежати від заздалегідь визначених методів ухилення, шкідливе програмне забезпечення динамічно адаптувалося, що підвищує ймовірність появи майже "невбиваного" шкідливого програмного забезпечення.
-
Уникнення шкідливого програмного забезпечення на основі RL - "Навчання ухилятися від статичних моделей шкідливих програм машинного навчання PE за допомогою навчання з підкріпленням" (Андерсон та ін., 2018)
Дослідження показує, як агенти навчання з підкріпленням можуть ітеративно модифікувати шкідливе програмне забезпечення Windows PE зі збереженням функціональності, щоб обійти статичні детектори шкідливого програмного забезпечення з машинним навчанням, уможливлюючи повністю чорну скриньку, адаптивну установку стійкого шкідливого програмного забезпечення.
Командування та управління
Отримавши контроль над кількома системами, зловмисник створює центр управління для їх віддаленої експлуатації. Зловмисник встановлює віддалений зв'язок зі скомпрометованою системою через різні канали (наприклад, веб, DNS або електронну пошту), щоб контролювати операції та уникнути виявлення. Зловмисник використовує різні методи, такі як маскування, щоб замести сліди і уникнути виявлення, або атаки типу "відмова в обслуговуванні" (DoS), щоб відволікти фахівців з безпеки від їхніх справжніх цілей.
Як AI змінює командування і управління (C2):
AI забезпечує більш прихований зв'язок C2, генеруючи трафік, що імітує законну діяльність, розробляючи алгоритми генерації ухильних доменів та організовуючи децентралізовані, адаптивні ботнети. Він також може налаштовувати поведінку C2, щоб уникнути детекторів аномалій.
Випадок висвітлено: AI-координовані ботнети, рої з власним розумом
У 2023 році, дослідники продемонстрували нову форму ботнету, що працює на базі AI. Звичайні ботнети зазвичай покладаються на центральний командно-контрольний сервер (C2), через який єдиний хаб видає інструкції, які потім виконують скомпрометовані машини, або "боти". Однак ця архітектура часто може бути порушена, як тільки захисники виявляють і виводять з ладу центральний сервер.
Ботнет з підтримкою AI використовував іншу модель. Кожен вузол мережі використовував навчання з підкріпленням, щоб самостійно визначати, коли починати атаки, які цілі переслідувати і як адаптувати тактику у відповідь на захисні заходи. Замість того, щоб чекати централізованих інструкцій, боти співпрацювали децентралізовано, функціонуючи як самоорганізований вулик.
Така конструкція зробила ботнет більш стійким і складним для виявлення. Навіть якщо деякі вузли були нейтралізовані, решта могла адаптуватися і продовжити роботу. Для захисників завдання більше не обмежувалося виведенням з ладу одного сервера, а вимагало протидії розподіленому, адаптивному рою скомпрометованих машин.
-
Фальсифікація журналів на основі AI та приховування слідів - "5 анти-криміналістичних методів, щоб обдурити слідчих (+ приклади та поради щодо виявлення)" (CyberJunkie 2023)
У звітах за 2024-2025 роки описано, як AI можна використовувати для стирання або зміни цифрових журналів, щоб приховати атаки від слідства, хоча повні реальні приклади все ще рідкісні. -
Обхід систем виявлення вторгнень в мережу на основі GAN "Атака! Атаки в обхід класифікатора на основі GAN, навченого виявляти вторгнення в мережу" (Piplai et al. 2020)
Дослідження показує, як ворожі атаки можуть успішно обходити системи виявлення вторгнень, навчені GAN, що дозволяє зловмисникам маскувати C2-трафік під звичайну мережеву активність.
Дії по досягненню цілей
Зловмисник досягає своєї кінцевої мети, наприклад, викрадення, шифрування або знищення даних.
Як AI змінює дії для досягнення цілей:
AI прискорює і вдосконалює фінальні завдання атаки: автоматизоване викрадення даних, визначення пріоритетності цінних активів, спеціальні повідомлення з метою вимагання і масштабну генерацію контенту для дезінформації або підриву. Остаточні стратегічні рішення часто все ще потребують людського судження, але AI скорочує шлях до цих рішень.
Виявлено випадок: PromptLocker, оркестр програм-вимагачів на базі AI
У 2024 році, дослідники з Нью-Йоркського університету представили PromptLockerце перевірена на практиці система програм-вимагачів, керована великою мовною моделлю. На відміну від звичайних програм-здирників, які слідують заздалегідь визначеній поведінці, PromptLocker приймала рішення в режимі реального часу та автоматизувала декілька етапів життєвого циклу атаки. На демонстрації модель працювала автономно:
- вибрали найцінніші цілі в скомпрометованій системі,
- викрадали конфіденційні дані перед шифруванням, збільшуючи важелі впливу на жертв,
- зашифровані томи та файли для заборони доступу
- створювали індивідуальні вимоги про викуп, підлаштовуючи тон і вимоги до профілю жертви (наприклад, фінансові можливості та галузь).
Хоча робота проводилася в контрольованому дослідницькому середовищі, PromptLocker проілюстрував, як генеративний AI може автоматизувати і масштабувати завдання, які раніше вимагали людського планування, тим самим прискорюючи здатність зловмисників досягати своїх цілей і адаптуватися до мінливих обставин.
-
Масштабна дезінформація, що генерується AI - "Проросійська дезінформаційна кампанія використовує безкоштовні інструменти AI для розпалювання "контент-вибуху"" (Gilbert 2025)
У статті пояснюється, як пов'язана з Росією кампанія "Операція "Перевантаження" (2023-2025 рр.) використовує інструменти AI для масового виробництва фейкових зображень, відео та клонованих голосів публічних осіб. Ці матеріали широко поширюються через мережі ботів у соціальних мережах для просування наративів, що розколюють суспільство. -
AI створила фейкові соціальні профілі для посилення "Характеристики та поширеність фейкових профілів у соціальних мережах з обличчями, згенерованими за допомогою AI" (Yang et al. 2024)
Розслідування виявило понад 1400 акаунтів у Twitter, які використовували зображення профілю, згенеровані AI, об'єднані в мережі для розкрутки шахрайства та політично заангажованих повідомлень, причому тисячі таких акаунтів були активні щодня. -
Створені AI фальшиві документи та інформаційні повідомлення (психологія) - "Брехня, яку Росія розповідає самій собі: пропагандисти країни націлені на Захід, але вводять в оману і Кремль" (Rid 2024)
У статті пояснюється, як поточна кампанія Doppelgänger створює переконливі підроблені версії легітимних новинних веб-сайтів і публікує статті, згенеровані AI, для просування проросійських наративів на Заході.
Питання для обговорення
- На якому етапі кібер-ланцюга вбивств AI, ймовірно, найбільше трансформується в майбутньому і чому? І на якому етапі AI приносить найбільш багатообіцяючі результати для зловмисників на даний момент? На якому етапі впровадження AI здається менш ефективним і перспективним?
- Чи схиляє AI перевагу в кіберпросторі більше на бік нападників чи захисників?
- Чи вирівняє широкий доступ до AI ігрове поле для аматорів, чи, навпаки, надасть перевагу добре забезпеченим супротивникам?
- Як здатність AI автоматизувати і прискорити ланцюжок кібератак змінює характер кібератак?
- Чи може AI зробити атаки настільки швидкими і адаптивними, що традиційні системи захисту стануть застарілими?
- Хто несе відповідальність за використання моделей AI для кібератак: розробники, розгортальники чи зловмисники?
- Як політики можуть регулювати наступальні AI, не стримуючи інновації в оборонному і цивільному застосуванні?
- Чи підштовхне AI кіберконфлікт до більш автономної війни "машина на машині"?
- Чи може AI докорінно змінити модель кібернетичного ланцюга вбивств на щось нелінійне і постійно адаптивне?