AI у сфері кіберзлочинності

Як AI змінює кібернетичний ланцюжок вбивств

Наступальні кібероперації - це цілеспрямовані дії, що проводяться в кіберпросторі з метою проникнення, порушення або знищення систем супротивника для досягнення стратегічних цілей. Зазвичай вони проводяться за допомогою Кібер-ланцюг вбивствконцепція, розроблена компанією Lockheed Martin. Вона розбиває атаку на структуровану послідовність етапів, відстежуючи прогрес супротивника від початкової розвідки до остаточних дій, спрямованих на досягнення цілей (наприклад, витік даних або їх знищення).

2

2

Озброєння

Поєднання експлойту з бекдором у корисному вантажі, що доставляється

Доставка

Передача жертві пакета зі зброєю електронною поштою, через Інтернет, USB тощо.

3

3

4

4

Експлуатація

Використання уразливості для виконання коду в системі жертви

Встановлення

Встановлення шкідливого програмного забезпечення на актив

5

5

6

6

Командування та управління (C2)

Командний канал для дистанційного маніпулювання жертвою

Дії по досягненню цілей

З доступом "Руки на клавіатурі" зловмисники досягають своїх початкових цілей

7

7

Останніми роками наступальні кібероперації зросли як за обсягом, так і за складністю. Глобальні кібератаки не лише різко зростають, але й урізноманітнюються за типамиу 2022 році, 27% глобальних кібератак були здирницькими, 21% - з використанням бекдорів, а 17% - з використанням програм-вимагачів. Штучний інтелект (AI) відіграє важливу роль у цій ескалації та диверсифікації, уможливлюючи нові форми атак, такі як глибокі підробки або ройові шкідливі програми, одночасно посилюючи традиційні вектори, такі як фішинг або використання вразливостей. За даними Глобальне опитування фінансових директорів85% фахівців з кібербезпеки пов'язують зростання кількості атак із взяттям на озброєння нового покоління AI. У Бенгалуру, Індія, в державний звіт підтвердило цю тенденцію: на початок 2025 року 80% фішингових листів були згенеровані AI.

AI трансформує сам кібер-ланцюг вбивств і має на меті потенціал для посилення кожного етапу наступальних кібер-кампаній. Швидкість і масштаби, з якими AI змінює цей ланцюг, стали нагальною проблемою національної безпеки.

Цей посібник зосереджується саме на AI як засобі здійснення атаки, досліджуючи, як він трансформує різні етапи кібер-ланцюга вбивств.

Розвідка

Зловмисник збирає інформацію про ціль, наприклад, дані про співробітників, електронну пошту або системні дані, щоб спланувати атаку.

Як 1ТП4Т змінює розвідку:

AI автоматизує та пришвидшує збір розвідувальної інформації з відкритих джерел, обробляючи великі обсяги публічних даних (соціальні мережі, корпоративні сайти, витоки записів) та витягуючи структуровані артефакти, такі як субдомени, ймовірні діапазони IP-адрес та профілі співробітників. Це також знижує бар'єр кваліфікації для цілеспрямованої соціальної інженерії, створюючи стислі профілі жертв, придатні для списоподібного фішингу.
Ступінь впливу: Високий. Автоматизований OSINT значно скорочує час і необхідний досвід.

Випадок висвітлено: ChatGPT як помічник розвідки

У 2024 році, дослідниця з кібербезпеки Шиталь Тамара опублікував статтю, яка демонструє, як великі мовні моделі, такі як ChatGPT, можуть значно прискорити фазу розвідки атаки. Замість того, щоб годинами писати скрипти і вручну збирати розвідувальну інформацію з відкритих джерел, дослідник використовував коротку серію розмовних підказок, наприклад: "Перерахуйте всі субдомени, які ви можете знайти для, наприклад, company.com", "Підсумуйте топологію мережі компанії на основі загальнодоступної інформації" і "Визначте, які операційні системи і служби, швидше за все, працюють на цих серверах".

За лічені хвилини модель видала корисний розвідувальний матеріал, зокрема:

  • список доменів і піддоменів, пов'язаних з цільовою компанією
  • ймовірні діапазони IP-адрес
  • примітки щодо конфігурацій SSL/TLS, потенційних відкритих портів та загальних сервісів
  • інформація про державних службовців (з LinkedIn та прес-релізів), яка може бути використана для шпигунського фішингу.

Там, де збір OSINT-інформації зазвичай вимагає годин або днів ручної роботи, експеримент звів завдання до діалогового робочого процесу, який вимагає набагато менше технічних знань. Таким чином, дослідження підкреслює, як генеративні моделі можуть знизити бар'єр для автоматизованої розвідки, з чіткими наслідками для оборонної практики і моделювання загроз.

Подальше читання

Озброєння

Зловмисник використовує інформацію, виявлену під час розвідки, щоб створити або налаштувати шкідливе корисне навантаження (наприклад, шкідливе програмне забезпечення або експлойти) і використати слабкі місця цілі.

Як AI змінює озброєння:

AI спрощує створення та налаштування шкідливих програм шляхом генерації або модифікації коду та тестування варіантів за допомогою моделей виявлення. Це дозволяє створювати більш непомітні, адаптивні та цілеспрямовані корисні навантаження, в тому числі поліморфні варіанти, які змінюють свій вигляд при кожному виконанні. Змагальне тестування може бути використане для вдосконалення корисного навантаження перед розгортанням.

Масштаб впливу: Високий. Автоматизація прискорює та масштабує розробку корисного навантаження.

Випадок висвітлено: Дроппер шкідливого програмного забезпечення, створеного AI, у дикій природі

У 2024 році, аналітики з кібербезпеки виявили фішингову кампанію, яка спочатку здавалася звичайною: серія електронних листів, що розповсюджували звичайне шкідливе програмне забезпечення. Однак при детальному вивченні дроппера (тобто невеликої програми, що відповідає за встановлення та активацію основного шкідливого програмного забезпечення) було виявлено незвичну особливість.

Структура і синтаксис дроппера вказували на те, що він був згенерований за допомогою великої мовної моделі, а не написаний людиною-програмістом. Хоча він функціонував як проста обгортка, дроппер, створений AI, був відшліфованим і ефективним, демонструючи здатність обходити традиційні методи виявлення. Він успішно обходив основні антивірусні сигнатури і доставляв шкідливе програмне забезпечення за призначенням.

Ця знахідка стала одним з перших підтверджених випадків розгортання шкідливого коду, створеного AI, у вільному доступі. Хоча шкідливе програмне забезпечення, що лежить в його основі, не було новим, передача частини процесу створення зброї AI стала значним кроком вперед. Це продемонструвало, як зловмисники можуть масштабувати операції, зменшити витрати на розробку і швидше адаптуватися, водночас ускладнюючи зусилля з виявлення і реагування.

Подальше читання

Доставка

Зловмисник запускає атаку, передаючи шкідливе корисне навантаження на ціль, часто через фішингові електронні листи, підроблені веб-сайти або незахищені мережі.

Як AI змінює доставку:

AI підлаштовує механізми доставки для досягнення максимального успіху. Він автоматизує створення переконливого фішингового контенту, глибоких підробок у режимі реального часу, адаптивних чатів і реалістичних шахрайських веб-сторінок, а також використовує дані розвідки для вибору оптимального моменту і каналу для доставки. Це зменшує потребу в людських навичках при проведенні кампаній.

Ступінь впливу: Високий. AI помітно підвищує переконливість і автоматизацію доставки.

Справа висвітлена: Шахрайство з фальшивим CEO в Arup

У 2024 році співробітники Британська інжинірингова компанія Arup отримали законний відеодзвінок від регіонального виконавчого директора, який здавався законним. Керівник терміново попросив переказати кошти у зв'язку з конфіденційною транзакцією. Людина на екрані з дивовижною точністю відтворювала зовнішність, голос і манеру поведінки генерального директора.

Насправді це був не керівник, а глибоко підроблений фейк, створений за допомогою AI, призначений для його імітації в режимі реального часу. Переконавшись у достовірності взаємодії, співробітники санкціонували низку переказів на загальну суму майже 25 мільйонів доларів США.

Цей інцидент є одним з найбільших зареєстрованих випадків соціальної інженерії з використанням AI на етапі реалізації кібератаки. Він ілюструє, що фішинг більше не повинен залежати від погано складених електронних листів або сумнівних посилань. Натомість AI дозволяє розгортати високореалістичні аудіо- та відеоімітації, які обходять не лише технічні засоби контролю, але й людські судження та довіру.

Подальше читання

Експлуатація

Зловмисник запускає корисне навантаження, щоб використати вразливість і отримати несанкціонований доступ до цільової системи. Після проникнення в організацію зловмисник використовує цей доступ для переміщення між системами в пошуках потрібної інформації (наприклад, конфіденційних даних, додаткових вразливостей, поштових серверів тощо) та нанесення шкоди організації.

Як AI змінює експлуатацію:

AI допомагає зловмисникам виявляти, розуміти та використовувати слабкі місця системи, автоматизуючи процес виявлення вразливостей (наприклад, інтелектуальний фаззінг та кероване сканування), будуючи дерева атак та пропонуючи шляхи їх використання. Він також може генерувати ворожі вхідні дані, які обходять інструменти безпеки або експлуатують засоби захисту.

Ступінь впливу: Середній. AI підвищує швидкість і ефективність виявлення, особливо в складних системах.

Виділено випадок: Черв'як Morris II AI

У 2024 році, дослідники продемонстрував нову форму саморозповсюджуваного хробака, який не покладався на використання звичайних вразливостей у програмному забезпеченні. Замість цього він націлився на самі генеруючі системи AI.

На ім'я Морріс II Нагадуючи сумнозвісного хробака Морріса 1988 року, ця атака для перевірки концепції використовувала ворожі підказки для маніпулювання моделями AI з метою відтворення та розповсюдження шкідливих інструкцій. Після того, як система була "інфікована", хробак міг автономно генерувати подальші підказки, які спонукали AI відтворити атаку і передати її іншим моделям.

На відміну від традиційних черв'яків, які зазвичай експлуатують невиправлений код, Морріс II поширюється, використовуючи відкритість та непередбачуваність генеративної поведінки AI. Демонстрація підкреслила, що в міру того, як організації все більше впроваджують генеративні AI в операційні робочі процеси, вони можуть виявити нові поверхні атак, де вразливість полягає не у вихідному коді, а в навчальних даних і реакціях моделей.

Подальше читання

Встановлення

Зловмисник встановлює шкідливе програмне забезпечення або бекдори, щоб підтримувати (прихований) постійний доступ і контроль всередині цільової системи.

Як AI змінює інсталяцію:

AI може створювати адаптивні методи персистенції та пропонувати найефективніші вектори інсталяції, аналізуючи дані попередніх етапів, але повна автоматизація нюансованого етапу інсталяції, що вимагає прийняття рішень, залишається обмеженою. У разі застосування, AI дозволяє шкідливому програмному забезпеченню змінювати поведінку, щоб уникнути виявлення, а також вибирати оптимальний час і точки входу.

Ступінь впливу: Середній. AI покращує стійкість і скритність, але повна автоматизація залишається обмеженою, оскільки встановлення вимагає контекстних рішень.

Випадок висвітлено: Вимагачі, які вчаться ховатися

У 2024 році, дослідники запровадили систему, відому як ЕГАНмодель AI, розроблена для дослідження того, як програми-вимагачі можуть використовувати стратегії навчання, щоб уникнути виявлення. На відміну від традиційного статичного шкідливого програмного забезпечення, яке або виявляють, або не помічають, ЕГАН працює за допомогою ітеративних експериментів.

Система неодноразово модифікувала код програми-здирника, тестуючи послідовні варіанти, поки не створила такий, який міг обійти антивірусний захист, зберігаючи при цьому повну функціональність. По суті, шкідливе програмне забезпечення "навчилося" обходити механізми виявлення на основі аномалій, які зазвичай ефективно виявляють підозрілу поведінку.

Хоча й створений у дослідницькому середовищі, ЕГАН продемонстрував, як механізми стійкості на основі AI можуть значно ускладнити виявлення та знищення програм-вимагачів після їхнього розгортання. Замість того, щоб залежати від заздалегідь визначених методів ухилення, шкідливе програмне забезпечення динамічно адаптувалося, що підвищує ймовірність появи майже "невбиваного" шкідливого програмного забезпечення.

Подальше читання

Командування та управління

Отримавши контроль над кількома системами, зловмисник створює центр управління для їх віддаленої експлуатації. Зловмисник встановлює віддалений зв'язок зі скомпрометованою системою через різні канали (наприклад, веб, DNS або електронну пошту), щоб контролювати операції та уникнути виявлення. Зловмисник використовує різні методи, такі як маскування, щоб замести сліди і уникнути виявлення, або атаки типу "відмова в обслуговуванні" (DoS), щоб відволікти фахівців з безпеки від їхніх справжніх цілей.

Як AI змінює командування і управління (C2):

AI забезпечує більш прихований зв'язок C2, генеруючи трафік, що імітує законну діяльність, розробляючи алгоритми генерації ухильних доменів та організовуючи децентралізовані, адаптивні ботнети. Він також може налаштовувати поведінку C2, щоб уникнути детекторів аномалій.

Ступінь впливу: Середній. AI підвищує складність і стійкість C2, але експлуатаційні обмеження обмежують широке впровадження.

Випадок висвітлено: AI-координовані ботнети, рої з власним розумом

У 2023 році, дослідники продемонстрували нову форму ботнету, що працює на базі AI. Звичайні ботнети зазвичай покладаються на центральний командно-контрольний сервер (C2), через який єдиний хаб видає інструкції, які потім виконують скомпрометовані машини, або "боти". Однак ця архітектура часто може бути порушена, як тільки захисники виявляють і виводять з ладу центральний сервер.

Ботнет з підтримкою AI використовував іншу модель. Кожен вузол мережі використовував навчання з підкріпленням, щоб самостійно визначати, коли починати атаки, які цілі переслідувати і як адаптувати тактику у відповідь на захисні заходи. Замість того, щоб чекати централізованих інструкцій, боти співпрацювали децентралізовано, функціонуючи як самоорганізований вулик.

Така конструкція зробила ботнет більш стійким і складним для виявлення. Навіть якщо деякі вузли були нейтралізовані, решта могла адаптуватися і продовжити роботу. Для захисників завдання більше не обмежувалося виведенням з ладу одного сервера, а вимагало протидії розподіленому, адаптивному рою скомпрометованих машин.

Подальше читання

Дії по досягненню цілей

Зловмисник досягає своєї кінцевої мети, наприклад, викрадення, шифрування або знищення даних.

Як AI змінює дії для досягнення цілей:

AI прискорює і вдосконалює фінальні завдання атаки: автоматизоване викрадення даних, визначення пріоритетності цінних активів, спеціальні повідомлення з метою вимагання і масштабну генерацію контенту для дезінформації або підриву. Остаточні стратегічні рішення часто все ще потребують людського судження, але AI скорочує шлях до цих рішень.

Ступінь впливу: Середній. AI прискорює та масштабує цілеспрямовану діяльність, але не повністю замінює людські наміри.

Виявлено випадок: PromptLocker, оркестр програм-вимагачів на базі AI

У 2024 році, дослідники з Нью-Йоркського університету представили PromptLockerце перевірена на практиці система програм-вимагачів, керована великою мовною моделлю. На відміну від звичайних програм-здирників, які слідують заздалегідь визначеній поведінці, PromptLocker приймала рішення в режимі реального часу та автоматизувала декілька етапів життєвого циклу атаки. На демонстрації модель працювала автономно:

  • вибрали найцінніші цілі в скомпрометованій системі,
  • викрадали конфіденційні дані перед шифруванням, збільшуючи важелі впливу на жертв,
  • зашифровані томи та файли для заборони доступу
  • створювали індивідуальні вимоги про викуп, підлаштовуючи тон і вимоги до профілю жертви (наприклад, фінансові можливості та галузь).

Хоча робота проводилася в контрольованому дослідницькому середовищі, PromptLocker проілюстрував, як генеративний AI може автоматизувати і масштабувати завдання, які раніше вимагали людського планування, тим самим прискорюючи здатність зловмисників досягати своїх цілей і адаптуватися до мінливих обставин.

Подальше читання

Питання для обговорення

Бібліографія

"Проросійська дезінформаційна кампанія використовує безкоштовні інструменти AI для розпалювання "контент-вибуху" | WIRED". Доступно 19 вересня 2025 р. https://www.wired.com/story/pro-russia-disinformation-campaign-free-ai-tools/. 

"Вимагач PromptLocker на базі AI - це лише дослідницький проект Нью-Йоркського університету - код працював як типовий вимагач, обираючи цілі, викрадаючи вибрані дані та шифруючи обсяги | Tom's Hardware". Доступно 19 вересня 2025 р. https://www.tomshardware.com/tech-industry/cyber-security/ai-powered-promptlocker-ransomware-is-just-an-nyu-research-project-the-code-worked-as-a-typical-ransomware-selecting-targets-exfiltrating-selected-data-and-encrypting-volumes. 

Аль-Каракі, Джамаль, Мухаммад Аз-Зафар Хан та Марван Омар. "Дослідження LLM для виявлення шкідливого програмного забезпечення: Огляд, розробка структури та підходи до протидії". arXiv:2409.07587. Версія 1. Препринт, arXiv, 11 вересня 2024 року. https://doi.org/10.48550/arXiv.2409.07587. 

Андерсон, Хайрум С., Анант Харкар, Боббі Філар, Девід Еванс та Філ Рот. "Навчання ухилятися від статичних моделей шкідливих програм машинного навчання PE за допомогою навчання з підкріпленням". arXiv:1801.08917. Препринт, arXiv, 30 січня 2018 року. https://doi.org/10.48550/arXiv.1801.08917. 

Аніс, Фатіма і Мохаммад Хаммуде. "Використання AI в кібератаках: порівняльне дослідження інструментів на базі AI для наступальної безпеки". Матеріали 8-ї Міжнародної конференції з мереж майбутнього та розподілених системACM, 11 грудня 2024, 283-90. https://doi.org/10.1145/3726122.3726164. 

Б'юкенен, Бен. "Порядок денний досліджень національної безпеки в галузі кібербезпеки та штучного інтелекту". Центр безпеки та нових технологій2020. https://cset.georgetown.edu/publication/a-national-security-research-agenda-for-cybersecurity-and-artificial-intelligence/. 

Коен, Став, Рон Біттон та Бен Нассі. "А ось і черв'як AI: Вивільнення черв'яків з нульовим кліком, які націлені на програми на базі GenAI". arXiv:2403.02817. Версія 1. Препринт, arXiv, 5 березня 2024 року. https://doi.org/10.48550/arXiv.2403.02817. 

Коммі, Деніел, Бенджамін Аппіа, Білл К. Фрімпонг, Айзек Осей, Ебенезер Н. А. Хаммонд і Гарт В. Кросбі. "EGAN: еволюційний GAN для ухилення від програм-вимагачів". 2023 48-а конференція IEEE з локальних комп'ютерних мереж (LCN)2 жовтня 2023, 1-9. https://doi.org/10.1109/LCN58197.2023.10223320. 

"Кібер-ланцюг вбивств® | Lockheed Martin". Доступно 19 вересня 2025 р. https://www.lockheedmartin.com/en-us/capabilities/cyber/cyber-kill-chain.html. 

"Кіберзагрози в ЄС: Факти та цифри - Консиліум". Доступно 22 вересня 2025 р. https://www.consilium.europa.eu/en/policies/top-cyber-threats/. 

"Шахраї видають себе за керівників FTSE". Доступно 19 вересня 2025 р. https://www.thetimes.com/business-money/technology/article/deepfake-fraudsters-impersonate-ftse-chief-executives-z9vvnz93l. 

Hack The Box. "5 анти-криміналістичних технік для обману слідчих (+ приклади та поради щодо виявлення)". Доступно 19 вересня 2025 року. https://www.hackthebox.com/blog/anti-forensics-techniques. 

"Хакери використовують AI для аналізу звітів розвідки загроз і шкідливого програмного забезпечення "Vibe Code" | IT Pro". Доступно 19 вересня 2025 р. https://www.itpro.com/security/hackers-are-using-ai-to-dissect-threat-intelligence-reports-and-vibe-code-malware. 

Гувер, Аманда. "Нова хитра афера, яку ваш банк не зможе зупинити". Business Insider. Доступно 19 вересня 2025 р. https://www.businessinsider.com/bank-account-scam-deepfakes-ai-voice-generator-crime-fraud-2025-5. 

Хуйнь, Нам та Бейю Лін. "Моделі великих мов для генерації коду: Всебічний огляд викликів, методів, оцінювання та застосування". arXiv:2503.01245. Препринт, arXiv, 2 квітня 2025 року. https://doi.org/10.48550/arXiv.2503.01245. 

IBM Security X-Force Threat Intelligence Index 2023. н.д. 

Kolosnjaji, Bojan, Ambra Demontis, Battista Biggio та ін. 'Adversarial Malware Binaries: Уникнення глибокого навчання для виявлення шкідливого програмного забезпечення у виконуваних файлах". arXiv:1803.04173. Препринт, arXiv, 12 березня 2018 року. https://doi.org/10.48550/arXiv.1803.04173. 

Лі, Хаоюань, Хао Цзян, Тао Цзінь та ін. "DATE: Адаптивний доменний пошуковик продуктів для електронної комерції". arXiv:2304.03669. Препринт, arXiv, 7 квітня 2023 року. https://doi.org/10.48550/arXiv.2304.03669. 

Мірський, Ісроель, Амбра Демонтіс, Джайдіп Котак та ін. "Загроза наступу AI на організації". Комп'ютери та безпека 124 (січень 2023): 103006. https://doi.org/10.1016/j.cose.2022.103006. 

Піплай, Арітран, Саї Срі Лайя Чуккапаллі та Анупам Джоші. "Атака! Атаки в обхід класифікатора на основі GAN, навченого виявляти вторгнення в мережу". 2020 IEEE 6-та Міжнародна конференція з безпеки великих даних у хмарі (BigDataSecurity), IEEE Міжнародна конференція з високопродуктивних та інтелектуальних обчислень (HPSC) та IEEE Міжнародна конференція з інтелектуальних даних та безпеки (IDS)травень 2020, 49-54. https://doi.org/10.1109/BigDataSecurity-HPSC-IDS49724.2020.00020. 

"Поліморфне шкідливе програмне забезпечення AI: Реальний приклад POC та виявлення - CardinalOps". Доступно 19 вересня 2025 р. https://cardinalops.com/blog/polymorphic-ai-malware-detection/. 

Рід, Томас. "Брехня, яку Росія говорить сама собі". Закордонні справи30 вересня 2024 року. https://www.foreignaffairs.com/united-states/lies-russia-tells-itself. 

"938 рупій втрачено кібершахраями з січня | Bengaluru News - Times of India". Доступно 22 вересня 2025 р. https://timesofindia.indiatimes.com/city/bengaluru/rs-938-crore-lost-to-cybercrooks-since-jan/articleshow/122075324.cms. 

Шрер, Саскія Лаура, Лука Пайола, Альберто Кастаньяро, Джованні Апруццезе та Мауро Конті. "Використання AI для атак: Про взаємодію між ворожим AI і наступальним AI". arXiv:2506.12519. Версія 1. Препринт, arXiv, 14 червня 2025 року. https://doi.org/10.48550/arXiv.2506.12519. 

Севак, Мохіт, Санджай К. Сахай та Хемант Ратхоре. "ADVERSARIALuscator: Обфускатор на основі Adversarial-DRL та метаморфічний генератор рою шкідливого програмного забезпечення". 2021 Міжнародна об'єднана конференція з нейронних мереж (IJCNN)18 липня 2021, 1-9. https://doi.org/10.1109/IJCNN52387.2021.9534016. 

Temara, Sheetal. "Максимізація успіху тестування на проникнення за допомогою ефективних методів розвідки з використанням ChatGPT". arXiv:2307.06391. Препринт, arXiv, 20 березня 2023 року. https://doi.org/10.48550/arXiv.2307.06391. 

Таунсенд, Кевін. "Шкідливе програмне забезпечення, що генерується AI, знайдене в дикій природі". SecurityWeek24 вересня 2024 року. https://www.securityweek.com/ai-generated-malware-found-in-the-wild/. 

Ямін, Мухаммад Мудассар, Мохіб Улла, Хабіб Улла та Базель Катт. "Озброєний AI для кібератак". Journal of Information Security and Applications 57 (березень 2021): 102722. https://doi.org/10.1016/j.jisa.2020.102722. 

Янг, Кай-Ченг, Данішджит Сінгх та Філіппо Менцер. "Характеристики та поширеність фальшивих профілів у соціальних мережах з обличчями, згенерованими за допомогою AI". Журнал про довіру та безпеку в Інтернеті 2, no. 4 (2024). https://doi.org/10.54501/jots.v2i4.197. 

Ю, Цзінгру, І Ю, Сюхон Ван та ін. "Тінь шахрайства: Нова небезпека соціальної інженерії на базі AI та її можливе лікування". arXiv:2407.15912. Препринт, arXiv, 22 липня 2024 року. https://doi.org/10.48550/arXiv.2407.15912. 

Дякуємо, що підписалися на нашу розсилку!

Дякуємо! Отримано заявки на участь у AI з кіберзлочинності

AI у кібер-злочинах

Завантаження...

Завантаження...