AI у кіберзахисті

Як AI змінює кіберзахист протягом усього життєвого циклу кіберінциденту

Кіберзахист спрямований на захист систем, мереж і даних від проникнення, порушення або знищення. У цьому контексті, в першу чергу, важливу роль відіграє життєвий цикл кіберінциденту пропонує корисний спосіб зрозуміти кіберзахист, розбиваючи його на чотири етапи:

  • Профілактика: запобігання та зниження ризику інцидентів і мінімізація їхніх потенційних наслідків.
  • Готовність: розробка планів, інструментів та можливостей для підтримки ефективного реагування.
  • Відповідь: зупинити інцидент і запобігти подальшій шкоді.
  • Одужання: швидке відновлення роботи та повернення до нормального або більш високого рівня безпеки.

 

Штучний інтелект (AI) став актуальним на всіх чотирьох етапах. На відміну від традиційних інструментів, які чітко вписуються в один етап, багато можливостей AI охоплюють весь життєвий цикл: той самий метод, який підтримує готовність, може також забезпечити швидке реагування або відновлення допомоги. Така інтеграція робить AI одночасно потужним і складним для класифікації: його цінність полягає не лише в удосконаленні окремих завдань, але й у більш тісному зв'язку між фазами.

Профілактика

Готовність

Відповідь

Відновлення

Картування поверхні атаки

Сканування коду

Узагальнення даних

Класифікація даних

Виявлення аномалій

Написання та аналіз

Синтетичні дані

Управління ідентифікацією та доступом

Управління ідентифікацією та доступом

Аналіз журналу

Аналіз шкідливого програмного забезпечення

Навчання та лабораторії

Навчання та лабораторії

У наступних розділах ми розглянемо конкретні застосування AI для кіберзахисту і покажемо, як вони відповідають різним фазам життєвого циклу інциденту, а в багатьох випадках охоплюють декілька фаз одночасно.

Картування поверхні атаки

Мапування поверхні атаки визначає всі активи, точки входу та вразливості, якими може скористатися противник під час атаки. Це дає захисникам уявлення про їхню вразливість і допомагає визначити пріоритети у захисті.

Як AI змінює мапування поверхні атаки:

AI трансформує мапування поверхні атаки, автоматизуючи великомасштабне сканування мереж та активів, значно зменшуючи ручну працю. Завдяки вдосконаленому розпізнаванню образів вона може виявляти приховані або забуті кінцеві точки, які традиційні методи часто пропускають. Системи AI можуть безперервно оновлювати карти в міру розвитку інфраструктури, зменшуючи сліпі зони і забезпечуючи захисників точною картиною середовища в реальному часі.
Профілактика. Зменшує вразливості до того, як ними скористаються зловмисники.
Готовність. Підтримує актуальну інформацію про інфраструктуру для планування інцидентів.

Висвітлено кейс: Використання LLM для виявлення активів у критичній інфраструктурі

У 2025 році, Луїджі Копполіно та ін. опублікувала дослідження, яке показує, як великі мовні моделі (LLM) можуть покращити виявлення активів у критично важливих інфраструктурах. Традиційні інструменти, такі як Nmap або промислові платформи безпеки, або ризикують порушити роботу чутливих систем через активне сканування, або не можуть виявити приховані пристрої, покладаючись лише на пасивний моніторинг.

Дослідники запропонували фреймворк на основі LLM, який поєднує дані пасивного спостереження за трафіком, ретельно обмежене активне зондування та фізичні сигнали, такі як електромагнітні випромінювання. Спеціалізовані агенти LLM інтерпретують ці дані: один зосереджується на промислових протоколах, інший - на вразливостях в ІТ/ОТ-мережах, а третій - на системній архітектурі та залежностях.

Система також може використовувати зовнішні джерела розвідки (такі як бази даних MITRE ATT&CK або CVE) для виявлення слабких місць і рекомендацій щодо заходів безпеки. У тестах на змодельованій промисловій мережі вона успішно класифікувала такі активи, як програмовані логічні контролери, роботизовані руки і принтери, одночасно позначаючи небезпечні практики, такі як незашифрований трафік Modbus.

Такий підхід перетворює мапування поверхні атаки на адаптивний і контекстно-залежний процес, який забезпечує видимість в реальному часі і зменшує ризики традиційного сканування. Знижуючи технічні бар'єри для захисників, він уможливлює більш комплексний моніторинг і посилює загальний рівень безпеки критично важливої інфраструктури.

Подальше читання

Сканування та оцінка коду

Сканування коду перевіряє вихідний код для виявлення вразливостей, незахищених бібліотек або поганих практик безпеки до того, як вони можуть бути використані.

Як AI змінює сканування та оцінку коду:

AI прискорює виявлення вразливостей, виділяючи незахищені функції та визначаючи ризиковані шаблони кодування, отримані на основі попередніх експлойтів. Він також пропонує автоматизовані пропозиції щодо виправлення, допомагаючи розробникам писати більш безпечний код і зменшуючи вікно можливостей для зловмисників.

Профілактика. Усуває вразливості до того, як їх виявлять зловмисники.
Готовність. Посилює базову систему безпеки для забезпечення готовності до інцидентів.

Висвітлено кейс: Використання LLM для сканування коду та безпечної розробки

У 2025 році, Бєлозеров та ін. досліджували, як великі мовні моделі можуть підтримувати безпечні практики кодування. У дослідженні вони тестували ChatGPT на наборі даних DevGPT, який містив реальний код розробників, а також відомі вразливості, виявлені статичними сканерами. З 32 підтверджених вразливостей ChatGPT правильно виявив 18 і навіть запропонував виправлення для 17 з них.

Результати показують, як AI може зменшити ручні зусилля при перегляді коду, допомогти відсортувати ризиковані шаблони коду та надати автоматизовані пропозиції щодо виправлення. Це має потенціал для масштабування безпечних практик кодування та скорочення часового вікна, протягом якого вразливості залишаються доступними для використання.

Водночас дослідження підкреслило важливі обмеження: ChatGPT іноді видавав надто впевнені, але неправильні результати, створював нові вади під час спроб виправлення і був менш надійним, ніж статичний аналіз або експертна оцінка людини. Основний висновок цього дослідження полягає в тому, що AI може бути потужним помічником в оцінці коду, але лише в поєднанні з традиційними інструментами та належним контролем.

Подальше читання

Узагальнення даних

Узагальнення даних конденсує великі обсяги технічних даних (наприклад, журнали, звіти та інформацію про загрози) у доступні інсайти.

Як AI змінює узагальнення даних:

AI зменшує когнітивне перевантаження, перетворюючи необроблену і неструктуровану інформацію на дієвий інтелект. Він може виявляти повторювані шаблони або аномалії у фрагментованих наборах даних. Він також може генерувати звіти простою мовою для неспеціалістів. Таким чином, AI робить інформацію простішою для споживання, передачі і дії.

Готовність. Допомагає обробляти інформацію про загрози та ефективніше планувати.
Відповідь. Впорядковує ситуаційну обізнаність в режимі реального часу.
Одужання. Готує резюме та звіти про отриманий досвід.

Виділений випадок: AI для узагальнення журналів та ситуаційної обізнаності

У 2024 році, Баласубраманіан та ін. представила CYGENT, діалогового агента на базі GPT-3, який може аналізувати та узагальнювати системні журнали. Замість того, щоб вимагати від аналітиків просіювати тисячі необроблених записів журналів, CYGENT конденсує їх у короткі, зрозумілі для людини результати, які висвітлюють ключові події та аномалії.

За результатами оцінок, CYGENT перевершив інші великі мовні моделі у створенні чітких і дієвих резюме. Система зменшила когнітивне перевантаження, підтримала ситуативну обізнаність під час реальних інцидентів і дозволила швидше приймати рішення.

Цей випадок ілюструє, як AI може перетворити необроблені технічні дані на доступну розвідувальну інформацію. Полегшуючи інтерпретацію журналів, це допомагає захисникам ефективніше готуватися, швидше реагувати та відновлюватися після інцидентів з кращою документацією.

Подальше читання

Класифікація даних

Класифікація даних упорядковує інформацію відповідно до її чутливості або вимог щодо відповідності, гарантуючи, що критичні активи отримують належний захист.

Як AI змінює класифікацію даних:

AI використовує обробку природної мови для автоматичного тегування конфіденційного контенту та виявлення некласифікованих або вразливих даних у масштабі.

Профілактика. Зменшує випадковий доступ до конфіденційних даних.
Готовність. Підтримує відповідність вимогам.

Виділений випадок: AI для класифікації конфіденційних даних

У 2024 році, Де Ренціс та ін. досліджували, як великі мовні моделі можна використовувати для покращення класифікації конфіденційної інформації. Основна проблема в цій галузі полягає в тому, що реальні персональні дані не завжди можуть бути використані для навчання через ризики конфіденційності. Автори запропонували генерувати синтетичні навчальні дані, які все ще відображають закономірності чутливих категорій, таких як здоров'я, політика чи релігія.

Їхній підхід дозволив підготувати точні класифікатори без розкриття реальних даних користувачів, демонструючи, як AI може допомогти організаціям дотримуватися таких нормативних актів, як GDPR, одночасно збільшуючи їхню здатність виявляти та захищати конфіденційну інформацію. Цей кейс ілюструє, як AI посилює як запобігання (зменшуючи випадковий витік даних), так і готовність (підтримуючи нормативно-правові рамки). Водночас він підкреслює важливість управління та валідації для забезпечення репрезентативності та надійності синтетичних даних та отриманих моделей.

Подальше читання

Виявлення аномалій кінцевих точок або мережі

Виявлення аномалій відстежує кінцеві точки та мережевий трафік на предмет незвичної поведінки, яка може свідчити про компрометацію.

Як AI змінює виявлення аномалій кінцевих точок та мережі:

AI вивчає, як виглядає нормальна активність, і позначає відхилення, які можуть свідчити про зловмисну діяльність. На відміну від систем на основі сигнатур, вона може виявляти більш витончені вторгнення, які не піддаються традиційному виявленню. AI дозволяє швидше та ефективніше реагувати на інциденти, визначаючи пріоритетність сповіщень та зменшуючи кількість хибних спрацьовувань.

Готовність. Встановлює базові показники нормальної активності.
Відповідь. Виявляє аномалії в реальному часі, щоб позначити та локалізувати атаки.

Висвітлено випадок: Використання AI для виявлення аномалій у критично важливих системах

У 2024 році, Нвойе та Нвагвугіагву дослідили, як виявлення аномалій на основі AI може покращити кіберзахист кінцевих точок і мереж. Використовуючи моделі машинного навчання, навчені на звичайних моделях поведінки системи і мережевого трафіку, їхній підхід дозволив їм виявити тонкі відхилення, які традиційні системи, що базуються на сигнатурах, не помітили б, в тому числі, наприклад, ранні ознаки внутрішніх загроз і витоків даних.

У дослідженні представлені приклади з критично важливих секторів, які показують, що виявлення аномалій за допомогою AI скорочує час реагування і допомагає підтримувати безперервність бізнесу, позначаючи підозрілу активність до того, як вона завдасть серйозної шкоди. Автори також визнали виклики, включаючи помилкові спрацьовування і необхідність прозорості в складних моделях AI. Цей кейс демонструє, як AI сприяє як готовності (шляхом встановлення базових показників нормальної діяльності), так і реагуванню (шляхом виявлення та визначення пріоритетів аномалій в режимі реального часу).

Подальше читання

Загальні завдання з написання текстів та збору/аналізу даних

Оборонні операції також передбачають велику кількість письмових робіт, досліджень і аналізу даних для документування інцидентів, прийняття рішень і навчання персоналу.

Як AI змінює загальні завдання з написання текстів та збору й аналізу даних:

AI може складати звіти, політики і брифінги щодо інцидентів, полегшуючи адміністративне навантаження на аналітиків. Він може автоматизувати збір розвідданих з відкритих джерел для навчань, дозволяючи студентам і фахівцям зосередитися на аналізі та стратегії більш високого рівня, а не на повторюваних завданнях.

Відповідь. Підтримує швидке звітування та ситуаційну обізнаність.
Одужання. Забезпечує ретельне документування після інциденту та засвоєння уроків.

Case Highlighted: Автоматизований збір даних та звітність

У 2024 році, Гао та ін. представила ThreatKG, систему на базі AI, яка автоматично збирає розвіддані про кіберзагрози з відкритих джерел, виокремлює ключові об'єкти, такі як суб'єкти та вразливості, і організовує їх у структурований граф знань. Замість того, щоб аналітики вручну читали довгі неструктуровані звіти, система надає консолідований огляд з можливістю пошуку. Це зменшує адміністративний тягар оборонних операцій, сприяє швидшому створенню брифінгів щодо інцидентів і покращує ситуаційну обізнаність під час активних загроз. Перетворюючи фрагментарну інформацію на доступні інсайти, ThreatKG дозволяє персоналу витрачати більше часу на інтерпретацію і прийняття рішень. Дослідження ілюструє, як AI може змінити повсякденну оборонну роботу, роблячи збір розвідданих більш ефективним і дієвим, водночас підкреслюючи необхідність контролю для забезпечення точності і релевантності.

Подальше читання

Створення синтетичних даних

Синтетична генерація даних створює штучні набори даних для навчання, тестування або моделювання, не розкриваючи конфіденційну інформацію реального світу.

Як AI змінює генерацію синтетичних даних:

AI може створювати реалістичні зразки мережевого трафіку або шкідливого програмного забезпечення для лабораторних досліджень, заповнювати прогалини там, де реальні дані недоступні, і захищати конфіденційність, дозволяючи проводити експерименти. Це допомагає освітянам і захисникам підготуватися до реальних інцидентів без ризику витоку конфіденційних даних.

Профілактика. Дозволяє безпечно експериментувати, не розкриваючи конфіденційну інформацію.
Готовність. Підтримує навчання та симуляції з реалістичними наборами даних.
Одужання. Відтворює сценарії атак для тестування та вдосконалення після інциденту.

Виділений кейс: Використання GAN для створення безпечних і реалістичних навчальних даних

У 2022 році, Nukavarapu et al розробили MirageNet, фреймворк, який використовує генеративні мережі суперників (GAN) для створення реалістичного синтетичного мережевого трафіку. Система може відтворювати шаблони трафіку DNS та інших протоколів у спосіб, що дуже нагадує реальні дані, але не розкриваючи конфіденційну інформацію з реальних мереж.

Ця інновація важлива, оскільки захисники та викладачі часто потребують реалістичних даних для тренувань, тестування та експериментів, але не завжди можуть використовувати оперативний трафік з міркувань конфіденційності чи безпеки. MirageNet дозволяє проводити безпечні симуляції, які готують аналітиків до реальних атак, уникаючи при цьому ризиків розкриття інформації. Використання AI, а в даному випадку GAN, дозволяє проводити більш безпечні і масштабовані експерименти. У той же час, залишається важливим підтвердити, що синтетичні дані дійсно відображають реальні операційні умови, гарантуючи, що навчання і тестування залишаються надійними.

Подальше читання

Управління ідентифікацією та доступом (IAM)

Управління ідентифікацією та доступом (IAM) гарантує, що тільки авторизовані користувачі мають відповідний доступ до систем і ресурсів.

Як AI змінює управління ідентифікацією та доступом:

AI посилює IAM, виявляючи аномальні шаблони входу, які можуть свідчити про зловживання обліковими даними, рекомендуючи адаптивні політики автентифікації та автоматизуючи рутинні перевірки. Під час інцидентів він може швидко позначити скомпрометовані облікові записи і запустити посилений контроль для стримування загроз.

Профілактика. Забезпечує надійнішу автентифікацію та зменшує несанкціонований доступ.
Відповідь. Адаптується в режимі реального часу при підозрі на зловживання обліковими даними.

Case Highlighted: Виявлення незвичного та неналежного доступу

У 2024 році, Продам провела дослідження для підтвердження концепції застосування AI в системах IAM. Інтегрувавши модель виявлення аномалій у діючу платформу IAM, система змогла виявити незвичну поведінку при вході в систему та невідповідні привілеї доступу. Такий підхід дозволяє організаціям швидше виявляти скомпрометовані акаунти або зловживання з боку інсайдерів, а також динамічно адаптувати політики автентифікації при виявленні ризиків. Дослідження виявило очевидне підвищення ефективності, підкресливши при цьому постійну потребу в людському нагляді для інтерпретації виявлених аномалій та уникнення непотрібних збоїв. Таким чином, AI дозволяє посилити повсякденний контроль доступу і може перетворити IAM на більш адаптивну та проактивну лінію захисту.

Подальше читання

Аналіз журналу

Аналіз журналів вивчає системні журнали та журнали безпеки для виявлення, розслідування та розуміння інцидентів.

Як AI змінює аналіз логів:

AI може обробляти величезні обсяги журналів у режимі реального часу, виділяти незвичайні послідовності подій і створювати стислі зведення. Це покращує виявлення і дозволяє швидше навчати та моделювати інциденти.

Готовність. Встановлює базові показники та визначає потенційні слабкі місця.
Відповідь. Прискорює розслідування та підтримує обробку інцидентів у режимі реального часу.
Одужання. Інформує про аналіз та звітність після інцидентів.

Висвітлено випадок: Агенти AI для аналізу логів і виявлення шаблонів загроз

У 2025 році, Караарслан та ін. досліджували, як агенти AI можуть допомогти в аналізі великих логів, що генеруються Cowrie honeypots. Ботнети навмисно імітують вразливі системи, щоб привабити зловмисників, але в результаті отримують величезний обсяг необроблених даних, які складно інтерпретувати людям-аналітикам.

Дослідники показали, що агенти AI можуть автоматично аналізувати та узагальнювати ці журнали, виділяючи повторювані шаблони атак і створюючи стислі звіти. Така автоматизація зменшує ручну працю, підвищує обізнаність про ситуацію і дозволяє захисникам виявляти тенденції та швидше коригувати заходи безпеки. Дослідження ілюструє, як AI може перетворити некеровані набори даних на дієву розвідувальну інформацію, водночас підкреслюючи необхідність ретельної перевірки результатів, щоб не допустити неправильного тлумачення нових або оманливих тактик супротивника.

Подальше читання

Аналіз шкідливого програмного забезпечення

Аналіз шкідливого програмного забезпечення досліджує шкідливе програмне забезпечення, щоб зрозуміти його поведінку, походження та потенційний вплив.

Як AI змінює аналіз шкідливого програмного забезпечення:

AI прискорює класифікацію, виявляючи схожість коду в різних сімействах шкідливих програм і генеруючи пояснення виконання в пісочниці. Це допомагає аналітикам швидко зрозуміти, як працює шкідливе програмне забезпечення, що сприяє швидшому реагуванню та ефективнішому усуненню загроз.

Відповідь. Прискорює виявлення та стримування шкідливого програмного забезпечення.
Одужання. Сприяє накопиченню знань для майбутньої оборони.

Висвітлено випадок: Демонтаж шкідливого програмного забезпечення за допомогою AI

У 2025 році, Апвріль і Наков оцінили R2AI, плагін AI для дизасемблера Radare2, на останніх зразках шкідливого програмного забезпечення для Linux та IoT. Система інтегрує LLM в процес зворотного проектування, допомагаючи аналітикам декомпілювати функції, перейменовувати змінні та виявляти підозрілу поведінку. Їхнє дослідження показало, що допомога AI може скоротити час аналізу з декількох днів до приблизно половини, зберігаючи при цьому таку ж або кращу якість, ніж при аналізі, який виконується лише людиною. Наприклад, у випадку зі шкідливим програмним забезпеченням Linux/Devura, AI правильно визначив формати аргументів, які пропустили аналітики. Однак обмеження залишалися: моделі час від часу видавали галюцинації, перебільшення або пропуски і потребували постійної перевірки кваліфікованими експертами. Отримані дані свідчать про те, що розбирання за допомогою AI є найбільш ефективним як мультиплікатор сили, що прискорює сортування і швидше виявляє деталі, але все ще покладається на людський нагляд для забезпечення точності і уникнення неправильної інтерпретації.

Подальше читання

Навчання та лабораторії

Тренінги та лабораторії забезпечують контрольоване середовище для практичних вправ та симуляцій з кібербезпеки.

Як AI змінює навчання та лабораторії:

AI може генерувати динамічні лабораторні сценарії, адаптовані до прогресу учня, створювати адаптивні завдання різної складності та автоматизувати зворотній зв'язок і оцінювання. Це сприяє більш реалістичному та масштабованому навчанню.

Готовність. Посилює готовність за допомогою адаптивних симуляцій.
Одужання. Включає в навчання уроки з реальних інцидентів.

Висвітлено випадок: Кіберполігони на базі AI для адаптивного навчання

У 2025 році, Сісодія та ін.представила кіберполігон на базі AI, призначений для підвищення реалістичності та ефективності навчання з кібербезпеки. На відміну від традиційних статичних лабораторій, платформа використовує AI для регулювання складності сценаріїв відповідно до прогресу учнів, впровадження реалістичних подій атак і забезпечення автоматизованого зворотного зв'язку.

Дослідження показало, що студенти, які навчалися в цьому середовищі, досягли вищої точності виявлення та скоротили час ліквідації наслідків порівняно з традиційними підходами. Для викладачів система дає можливість масштабувати вправи, персоналізувати завдання та включати уроки з реальних інцидентів у симуляції.

З технічної точки зору, дослідження також продемонструвало, що гібридні архітектури, які поєднують хмарну масштабованість з точністю фізичних систем, забезпечують більш реалістичні та адаптивні сценарії. Отримані результати підкреслюють, як AI може трансформувати навчання з фіксованих вправ у динамічні навчальні середовища, які краще готують студентів і фахівців до реальних кіберзагроз.

Подальше читання

Питання для обговорення

Бібліографія

Алзу'бі, Ахмад, Омар Дарвіш, Амджад Альбашайрех та Ях'я Таштуш. "Класифікація логів подій кібератак за допомогою глибокого навчання з аналізом семантичних ознак". Комп'ютери та безпека 150 (березень 2025): 104222. https://doi.org/10.1016/j.cose.2024.104222. 

Аммара, Дуре Адан, Цзянго Дін та Курт Тутшку. "Синтетична генерація даних про мережевий трафік: Порівняльне дослідження". arXiv:2410.16326. Версія 2. Препринт, arXiv, 22 лютого 2025 року. https://doi.org/10.48550/arXiv.2410.16326. 

Баласубраманіан, Прасасті, Джастін Себі та Панос Костакос. "CYGENT: діалоговий агент з кібербезпеки з узагальненням логів на базі GPT-3". arXiv:2403.17160. Препринт, arXiv, 25 березня 2024 року. https://doi.org/10.48550/arXiv.2403.17160. 

Копполіно, Луїджі, Антоніо Яннакконе, Роберто Нардоне та Альфредо Петруоло. "Виявлення активів у критичній інфраструктурі: Підхід, заснований на програмі LLM". Електроніка 14, № 16 (2025): 3267. https://doi.org/10.3390/electronics14163267. 

Гао, Пенг, Сяоюань Лю, Едвард Чой, Сібо Ма, Сінью Ян та Дон Сонг. "ThreatKG: система на базі AI для автоматизованого збору та управління розвідданими про кіберзагрози з відкритим кодом". arXiv:2212.10388. Препринт, arXiv, 30 жовтня 2024 року. https://doi.org/10.48550/arXiv.2212.10388. 

Гейгер, Александр, Донгю Лю, Сара Алнегхайміш, Альфредо Куеста-Інфанте та Кальян Вірамачанені. "TadGAN: Виявлення аномалій часових рядів за допомогою генеративних змагальних мереж". arXiv:2009.07769. Препринт, arXiv, 14 листопада 2020 року. https://doi.org/10.48550/arXiv.2009.07769. 

Гіоні, Ріккардо, Маріаросарія Таддео та Лучано Флоріді. "Розвідка з відкритим кодом і AI: систематичний огляд літератури GELSI". Аі та суспільство28 січня 2023, 1-16. https://doi.org/10.1007/s00146-023-01628-x. 

Хумран, Хаель Абдулхакім Алі та Ферді Сонмез. "Виявлення вразливостей коду в різних мовах програмування за допомогою моделей AI". arXiv:2508.11710. Препринт, arXiv, 14 серпня 2025 року. https://doi.org/10.48550/arXiv.2508.11710. 

Караарслан, Еніс, Есін Гюлер, Ефе Емір Юче та Кагатай Кобан. "До аналізу логів за допомогою агентів AI: Приклад Cowrie". arXiv:2509.05306. Препринт, arXiv, 22 серпня 2025 року. https://doi.org/10.48550/arXiv.2509.05306. 

Небебе, Бетельхем, Павліна Крьокель, Ромарік Ятага, Наташа Едех та Карл Ведт. "AI Defenders: Виявлення аномалій у критично важливих інфраструктурах на основі машинного навчання". Gesellschaft für Informatik e.V., 2024, 1917-27. https://dl.gi.de/handle/20.500.12116/45143. 

Нукаварапу, Сантош Кумар, Мохаммед Айят і Тамер Надім. "MirageNet - на шляху до фреймворку на основі GAN для генерації синтетичного мережевого трафіку". GLOBECOM 2022 - 2022 IEEE Глобальна конференція з комунікаційIEEE, 4 грудня 2022, 3089-95. https://doi.org/10.1109/GLOBECOM48099.2022.10001494. 

Нвойе, Чуквуйекву Чарльз та Стівен Нвагвугіагву. "Виявлення аномалій на основі AI для проактивної кібербезпеки та запобігання витоку даних". Міжнародний журнал досліджень та управління в галузі інженерних технологій 8, № 11 (2024): 339-56. 

Огундайро, Обалолува та Пітер Броклін. Обробка природної мови для аналізу інцидентів кібербезпеки. 2024. 

Peng, Wei, Junmei Ding, Wei Wang та ін. "CTISum: Новий еталонний набір даних для узагальнення розвідданих про кіберзагрози". arXiv:2408.06576. Препринт, arXiv, 30 червня 2025 року. https://doi.org/10.48550/arXiv.2408.06576. 

Перріна, Філіппо, Франческо Маркіорі, Мауро Конті та Ніно Вінченцо Верде. "AGIR: Автоматизація звітності розвідки кіберзагроз за допомогою генерації природної мови". arXiv:2310.02655. Препринт, arXiv, 4 жовтня 2023 року. https://doi.org/10.48550/arXiv.2310.02655. 

Петроліні, Майкл, Стефано Каньоні та Моніка Мордоніні. "Автоматичне виявлення чутливих даних з використанням класифікаторів на основі трансформаторів". Інтернет майбутнього 14, № 8 (2022): 228. https://doi.org/10.3390/fi14080228. 

Роні, Нанда, Бікаш Саха, Вікас Маур'я та Сандіп Кумар Шукла. "TTPXHunter: Вилучення оперативної інформації про загрози у вигляді TTP з готових звітів про кіберзагрози". Цифрові загрози: Дослідження та практика 5, ні. 4 (2024): 1–19. https://doi.org/10.1145/3696427. 

Родрігес, Девід, Сара Лі, Джошуа Вілсон та Садіс Белло. IAM-аудит на базі AI для виявлення аномалій у критичній інфраструктурі. 18 квітня 2025 року. 

Продам, Фелікс. "Вдосконалення управління ідентифікацією та доступом за допомогою штучного інтелекту для виявлення аномалій: Дослідження реалізації концепції". 2024. 

Сюй, Шенже, Маніш Марва, Мартін Арлітт та Нарен Рамакрішнан. "STAN: Синтетична мережева генерація трафіку за допомогою генеративних нейронних моделей". arXiv:2009.12740. Препринт, arXiv, 3 серпня 2021 року. https://doi.org/10.48550/arXiv.2009.12740. 

Ян, Зіці та Чженкай Лян. "Автоматизована ідентифікація чутливих даних з неявної специфікації користувача". Кібербезпека 1, № 1 (2018): 13. https://doi.org/10.1186/s42400-018-0011-x.

Дякуємо, що підписалися на нашу розсилку!

Дякуємо! Отримано запрошення на участь в AI з кіберзахисту

AI у кіберзахисті

Завантаження...

Завантаження...