Інструментарій штучного інтелекту в кібербезпеці

Ресурси для викладачів кібербезпеки

Вступ

Штучний інтелект (AI) швидко змінює ландшафт кібербезпеки, виступаючи як інструмент захисту і як зброя для нападу. Для освітян ця подвійна роль створює нагальну потребу підготувати учнів не лише до використання AI для захисту, але й до розуміння того, як супротивники можуть використовувати його в атаках.

З точки зору захисту, AI вже вбудований в професійні середовища безпеки, впливаючи на всі етапи життєвого циклу кіберінциденту (наприклад, запобігання, готовність, реагування та відновлення). Він забезпечує аналіз журналів, виявлення аномалій, розслідування шкідливого програмного забезпечення і навіть тренінги з підвищення обізнаності, надаючи захисникам більшу швидкість, точність і масштабованість. У навчальному процесі AI також відкриває нові можливості для викладання, автоматизуючи оцінювання, створюючи тематичні дослідження, імітуючи реальні інциденти і розробляючи інтерактивні вправи, які допомагають студентам ефективніше засвоювати складні концепції кібербезпеки.

Водночас, AI є рушійною силою нового покоління наступальних кібероперацій. Зловмисники використовують покоління AI для автоматизації розвідки, персоналізації фішингових кампаній, прискорення виявлення вразливостей або розгортання адаптивного шкідливого програмного забезпечення. Така трансформація кібер-ланцюга вбивств збільшила масштаб і витонченість атак по всьому світу - від програм-вимагачів до глибоких підробок і ройового шкідливого програмного забезпечення. Таким чином, AI є одночасно і засобом для кібератак, і мішенню для використання зловмисниками, а такі вразливості, як отруєння даних і приклади зловмисників, створюють нові ризики.

Цей інструментарій був розроблений Virtual Routes в рамках проекту Програма семінарів з кібербезпеки за підтримки Google.orgщоб забезпечити викладачів і студентів ресурсами в галузі, яка постійно розвивається. Він базується на опитуванні університетів-учасників і містить матеріали, які допомагають зрозуміти вплив AI на кібербезпеку, представляючи її подвійну роль як оборонного, так і наступального інструменту.

Вплив AI на навички кібербезпеки

У "The Європейська рамка навичок з кібербезпеки (ECSF) визначає дванадцять ключових професійних ролей у сфері кібербезпеки, а також завдання, навички, знання та компетенції, необхідні в цьому секторі. Ці ролі варіюються від технічних функцій, таких як розвідка загроз і тестування на проникнення, до ширших завдань, таких як управління ризиками та освіта. Ми визначили п'ять основних способів, за допомогою яких AI впливає на навички та компетенції, необхідні для виконання цих ролей:

Аналіз даних та розвідка загроз

ECSF: Спеціаліст з розвідки кіберзагроз; слідчий з цифрової криміналістики

LLM можуть прискорити збір, кореляцію та узагальнення великих обсягів звітів про загрози, журналів та індикаторів компрометації. Аналітики, як і раніше, повинні перевіряти отримані дані, але їхній фокус зміщується з повторюваного синтаксичного аналізу на критичну інтерпретацію.

Виявлення та реагування на інциденти

ECSF: Реагування на кіберінциденти

AI може допомогти у виявленні аномалій, сортуванні та первинному повідомленні. Навички перевірки сповіщень, контекстуалізації інцидентів та прийняття рішень щодо пропорційного реагування стають все більш важливими.

Оцінка ризиків та комплаєнс

ECSF: Спеціаліст з кібер-права, політики та комплаєнсу; менеджер з ризиків кібербезпеки; аудитор з кібербезпеки

AI може підтримувати автоматичну класифікацію конфіденційних даних і попередню оцінку ризиків. Фахівці-практики повинні застосовувати судження, щоб оцінити, чи відповідають результати, отримані за допомогою AI, нормативним та організаційним вимогам.

Безпечна розробка та перевірка коду

ECSF: Імплементатор кібербезпеки; Архітектор кібербезпеки; Тестувальник на проникнення

Сканування коду з підтримкою AI виявляє небезпечні шаблони і пропонує виправлення. Професіонали залишаються відповідальними за забезпечення безпечного кодування та зменшення ризику галюцинацій або хибних спрацьовувань AI, оскільки AI також може створювати незахищений код.

Освіта та обізнаність

ECSF: Викладач з кібербезпеки; дослідник з кібербезпеки

Магістерські програми дозволяють створювати адаптивні навчальні сценарії, синтетичні набори даних та автоматизований зворотній зв'язок. Набір навичок викладача розвивається в напрямку кураторства, валідації та відповідальної інтеграції ресурсів AI в навчальні програми.

Основні компетенції AI для кібербезпеки

Повсюдне впровадження AI вимагає від усіх фахівців з кібербезпеки, незалежно від їхньої ролі, розвивати нові навички, які сприятимуть відповідальному, адаптивному і ефективному використанню інструментів AI. Ці основні компетенції AI виходять за рамки знайомства з конкретними інструментами, а натомість зосереджуються на базових можливостях, необхідних для ефективної роботи в цьому середовищі, що швидко розвивається:

1. Фундаментальне розуміння
  • AI грамотність зрозуміти можливості та обмеження AI, а також безпечно інтегрувати його в робочі процеси без надмірної довіри до нього.
  • Етична обізнаність виявляти ризики, пов'язані з упередженістю, конфіденційністю, підзвітністю та безпекою, гарантуючи, що системи AI розгортаються таким чином, щоб підтримувати професійні та суспільні стандарти.
2. Оцінка та нагляд
  • Критична оцінка оцінювати результати, отримані в рамках AI, на основі перевірених джерел та контекстуальної експертизи, визначаючи, коли необхідна подальша перевірка або людське судження.
  • Пояснюваність і прозорість інтерпретувати результати AI, ставити під сумнів моделі "чорних скриньок" і чітко повідомляти про результати як технічним, так і нетехнічним зацікавленим сторонам, тим самим зміцнюючи довіру до рішень, прийнятих за допомогою AI.
  • Стійкість і людський контроль розробити засоби захисту, які запобігають надмірному покладанню на автоматизацію, забезпечуючи надійний захист і зберігаючи людську відповідальність за прийняття критично важливих рішень.
3. Управління ризиками та даними
  • Управління даними забезпечити якість, різноманітність і безпеку даних, що використовуються в системах AI, розуміючи, що погане управління даними може призвести до системних вразливостей.
  • AI управління ризиками передбачити та пом'якшити специфічні для AI ризики, такі як галюцинації, ворожі маніпуляції, небезпечна генерація коду та отруєння даних, вбудовуючи ці міркування в більш широкі рамки кіберризиків.
4. Адаптивність, орієнтована на майбутнє
  • Безперервне навчання оновити навички, відстежувати нові загрози та брати участь у нових розробках AI у сфері кібербезпеки.
  • Сценарне мислення та форсайт передбачити, як досягнення AI можуть змінити технічний, організаційний і стратегічний рівні кібербезпеки, і підготувати фахівців до проактивного реагування на майбутні виклики.
5. Співпраця та комунікація
  • Міждисциплінарна співпраця ефективно співпрацювати з експертами в галузі права, політики, психології та етики, визнаючи, що відповідальне використання AI вимагає поглядів, які виходять за межі суто технічної сфери.
  • Комунікація та розбудова довіри пояснювати рішення на основі AI чітко і детально, підтримуючи довіру між усіма зацікавленими сторонами.

Автоматизація повторюваних або малоцінних завдань на основі AI підняла нагальні питання про трансформацію робочої сили і потенційне витіснення робочих місць. Проте, в той час як деякі аналітичні завдання можуть зменшитися, виникають нові вимоги щодо нагляду за результатами AI, перевірки висновків і подолання специфічних для AI ризиків, таких як галюцинації, небезпечна генерація коду або маніпуляції з боку супротивника. Замість того, щоб ліквідувати функції кібербезпеки, AI зміщує профіль навичок у бік нагляду, управління і співпраці між людьми і AI.

Етичне та відповідальне використання AI у кіберзахисті

Оптимізуючи час, ефективність і ресурси, AI дозволяє захисникам робити більше з меншими витратами, знижуючи бар'єри для входу і посилюючи здатність виявляти і реагувати на все більш складні кіберзагрози. Оскільки кіберінциденти стають дедалі масштабнішими і складнішими, здатність AI обробляти великі обсяги даних робить його незамінним. Проте надмірне покладання на результати AI створює нові вразливості, особливо коли ці результати є неточними або не мають контекстуального розуміння, що викликає низку запитань щодо етики і відповідального використання:

Ключові етичні проблеми

Упередження та дискримінація
Моделі AI, навчені на упереджених або незбалансованих наборах даних, можуть несправедливо позначати певні групи користувачів або регіони як зловмисні. Наприклад, дослідники з кібербезпеки навчили систему виявлення вторгнень на історичних даних про атаки і з'ясували, що він давав на 30% більше хибних спрацьовувань для користувачів у недостатньо представлених регіонах, тоді як збалансована підготовка давала більш справедливі результати. Аналогічно, AI може надавати надмірний пріоритет знайомим типам атак, недооцінюючи нові загрози, створюючи прогалини в обороні.
Забезпечити недискримінаційні результати шляхом усунення алгоритмічних помилок та упередженості даних.
Моніторинг та спостереження
Безпека на основі AI вимагає широкомасштабного моніторингу мережевого трафіку, спроб входу в систему та поведінки користувачів, створення детальних цифрових слідів. Це постійне спостереження ризикує підриває довіру користувачів і порушує питання згоди. Більше того, довготривале зберігання даних збільшує ймовірність витоківа хмарна обробка підвищує питання щодо управління транскордонними даними.
Захищайте персональні та організаційні дані, поважайте згоду та мінімізуйте непотрібний збір.
Автономне прийняття рішень та непередбачувані наслідки
Автоматизовані заходи, такі як блокування облікових записів, блокування IP-адрес або відключення мережі, можуть мати неприйнятний рівень хибнопозитивних або хибнонегативних спрацьовувань, особливо якщо автоматизовані рішення не мають достатньої інформації про відповідний контекст. В експерименті, проведеному дослідниками з кібербезпекисистеми на базі AI успішно заблокували 92% загроз, але помилково позначили 8% легітимної активності як зловмисну. Такі помилки ризикують порушити роботу критично важливих сервісів, наприклад, у сфері фінансів або охорони здоров'я, і ускладнюють відповідальність за завдану шкоду.
Підтримувати механізми залучення людей до процесу та чітко розподіляти відповідальність за результати, що визначаються AI.
Непрозорість моделей AI
Багато систем AI функціонують як "чорні скриньки", надаючи мало інформації про те, як вони роблять висновки. У сфері кібербезпекиця відсутність пояснення може ускладнити для аналітиків розуміння того, чому законний трафік позначений або чому певні загрози є пріоритетними, що може призвести до того, що підривають довіру і затримують ефективне реагування.
Зробіть процеси прийняття рішень в рамках AI зрозумілими та інтерпретованими для зацікавлених сторін.
Щоб реалізувати ці принципи на практиці, організації можуть використовувати комбінацію нормативних і технічних інструментів для підвищення надійності систем AI:
Регуляторні заходи включають такі механізми дотримання вимог, як Закон ЄС про штучний інтелект (Закон AI)який запроваджує зобов'язання на основі оцінки ризиків, оцінки впливу на фундаментальні права та механізми підзвітності для систем AI з високим ступенем ризику. Інші регуляторні заходи включають алгоритмічні оцінки впливу для оцінки ризиків перед розгортанням, дотримання законів про захист даних, таких як GDPR і CCPAі системи підзвітності які розподіляють відповідальність за помилки, пов'язані з AI. Розробка і прийняття міжнародно визнаних стандартів і сертифікатів забезпечують додаткові інструменти комплаєнсу, які допомагають втілювати в життя юридичні зобов'язання, сприяють довірі і, до певної міри, стимулюють інновації, надаючи організаціям можливість експериментувати з розробкою продукції в рамках заздалегідь визначених обмежень.
Технічні рішення включають методи машинного навчання з урахуванням принципів справедливості, методи виявлення та пом'якшення упередженості, технології захисту приватності, такі як шифрування та анонімізація, а також зрозумілі підходи AI, які роблять процеси прийняття рішень більш прозорими. Нагляд та постійний моніторинг моделей за участю людини надалі гарантувати, що автоматизовані системи залишаються точними, етичними та узгодженими з організаційними та суспільними цінностями.
Ресурси

Чаґанті, Крішна Чайтанья. Етичний AI для кібербезпеки: Рамки для збалансування інновацій та регулювання. 2025. https://www.authorea.com/users/857462/articles/1262647-ethical-ai-for-cybersecurity-a-framework-for-balancing-innovation-and-regulation. 

Чітімоджу, Сатіш. "Етичні виклики AI в кібербезпеці: Упередженість, конфіденційність та автономне прийняття рішень". Журнал обчислювальних інновацій 3, № 1 (2023). https://researchworkx.com/index.php/jci/article/view/69. 

Кріс, Еммануель. Етичні міркування в AI для кібербезпеки. 1 грудня 2022 року. 

Сонтан, Адевейл Даніель та Сегун Віктор Семюель. "Перетин штучного інтелекту та кібербезпеки: Виклики та можливості". Світовий журнал передових досліджень та оглядів 21, ні. 02 (2024): 1720-36. 

Вемурі, Навін, Нареш Танеру та Венката Манодж Татіконда. "Забезпечення довіри: Етичні міркування в AI для кібербезпеки". Journal of Knowledge Learning and Science Technology ISSN: 2959-6386 (Online) 2, no. 2 (2023): 167–75. https://doi.org/10.60087/jklst.vol2.n2.p175.

Методи дослідження та дані

Virtual Routes провела онлайн-опитування 27 викладачів з університетів Європи, які взяли участь в опитуванні. Опитувальник мав на меті визначити, чи використовують вони наразі AI у викладанні кібербезпеки, як вони це роблять, чому, які конкретні інструменти та завдання, а також чи застосовують вони AI в контексті підтримки кібербезпеки, що надається місцевим громадським організаціям (МГО). Хоча відповіді не є статистично значущими, вони дають уявлення про поточну практику та очікування, висвітлюючи як можливості, так і виклики, пов'язані з інтеграцією AI в освіту з кібербезпеки. Опитування було доповнене подальшими інтерв'ю для кращого розуміння практичних прикладів використання.

Можна виділити кілька ключових висновків:

Раннє, але зростаюче використання AI

З 27 респондентів більшість (22) сказали, що вже експериментують з інструментами AI у своєму викладанні, зокрема на семінарах з кібербезпеки, організованих Google.org. Однак впровадження все ще перебуває на початковій стадії і часто обмежується виконанням конкретних завдань, а не систематичною інтеграцією. П'ять респондентів зазначили, що вони ще не використовують AI.

Різноманітні випадки використання

Найпоширеніші програми включають загальні завдання з написання текстів та збору/аналізу даних (з використанням загальних LLM), синтезу даних, а також спеціалізовані завдання з кібербезпеки, такі як виявлення аномалій, мапування поверхні атаки, аналіз шкідливого програмного забезпечення та практичні лабораторні роботи.

Мотиви для усиновлення

Викладачі кібербезпеки в першу чергу використовують AI, щоб допомогти студентам підготуватися до роботи, підтримати самостійне навчання та самооцінку, а також заощадити час на педагогічних завданнях, таких як створення вправ, оцінювання та створення контенту. Багато хто також бачить цінність використання AI для ілюстрації ключових концепцій і сценаріїв кібербезпеки.

Застосування у сфері громадських послуг

Приблизно половина респондентів (15 з 27) заявили, що вони вже використовують або планують використовувати AI для надання підтримки місцевим громадським організаціям (МГО) у сфері кібербезпеки, що є ключовим аспектом семінарів з кібербезпеки Google.org. Це демонструє зростаючий зв'язок між вивченням інструментів AI в аудиторії та їх застосуванням в реальних умовах громади.

Потреби та очікування освітян

Кілька респондентів висловили зацікавленість в отриманні рекомендацій і прикладів того, як ефективно інтегрувати AI в освіту з кібербезпеки. Вони підкреслили потребу в передовому досвіді, спільних ресурсах і тематичних дослідженнях, щоб перейти від експериментів до більш структурованого і ефективного використання AI у навчанні та наданні послуг.

Як орієнтуватися в інструментарії

Цей посібник складається з двох частин, що відображає подвійну роль AI у сфері кібербезпеки.

AI у кіберзахисті

Як AI змінює кіберзахист на всіх етапах життєвого циклу кіберінциденту:

У першій частині розглядається вплив AI на кіберзахист, описується, як інструменти AI підтримують кіберзахист на всіх етапах життєвого циклу інциденту - запобігання, готовність, реагування та відновлення. Вона висвітлює конкретні застосування, такі як картування поверхні атаки, виявлення аномалій та безпечна розробка коду, і ілюструє їх тематичними дослідженнями та посиланнями для подальшого вивчення.

AI у кібер-злочинах

Як AI змінює кібер-ланцюг вбивств:

У другій частині розглядається вплив AI на кіберзлочинність з акцентом на тому, як AI змінює кіберланцюг вбивств. У ній розглядається, як AI дозволяє зловмисникам автоматизувати і вдосконалити такі етапи, як розвідка, озброєння і доставка, а також запровадити нові форми атак. Конкретні приклади і додаткова література забезпечують контекст для розуміння цих змін.

Глосарій термінів

Як ви можете зробити свій внесок

Чи використовуєте ви рішення AI з відкритим кодом для навчання студентів з кібербезпеки, чи маєте інші загальнодоступні ресурси для викладання AI та кібербезпеки (незалежно від того, чи базуються вони на AI чи ні)?

Ми будемо раді почути від вас. Будь ласка, напишіть нам на адресу co*****@vi************.org ми будемо ділитися вашими внесками з ширшою спільнотою і забезпечуватимемо постійне оновлення цього інструментарію.

Дякуємо, що підписалися на нашу розсилку!

Дякуємо! Отримано запрошення на участь у AI з кібербезпеки в Інструментарії кібербезпеки

Інструментарій штучного інтелекту в кібербезпеці

Завантаження...

Завантаження...