Поглиблене виявлення вразливостей та штучний інтелект

Цей модуль досліджує перетин виявлення вразливостей і штучного інтелекту (ШІ), зосереджуючись на тому, як методи ШІ можуть автоматизувати та покращити виявлення вразливостей безпеки в програмному забезпеченні та системах. Він охоплює використання моделей машинного навчання для прогнозування та виявлення потенційних вразливостей, навчання ШІ на історичних даних про вразливості, а також етичні міркування щодо автоматизованого тестування та експлуатації.

Портал > Штучний інтелект > Поглиблене виявлення вразливостей та штучний інтелект

Конструктор навчальних програм

Чіо, Кларенс і Девід Фріман. Машинне навчання та безпека: Захист систем за допомогою даних та алгоритмів. Перше видання. Севастополь, Каліфорнія: O'Reilly Media, 2018.

Ван, Болун, Юаньшунь Яо, Бімал Вісванатх, Хайтао Чжен та Бен Й. Чжао. "З великою підготовкою приходить велика вразливість: Практичні атаки проти трансферного навчання". У матеріалах 27-го симпозіуму USENIX Conference on Security Symposium, 1281-97. SEC'18. США: Асоціація USENIX, 2018.

Андерсон, Хайрум С., Джонатан Вудбрідж та Боббі Філар. "DeepDGA: генерація та виявлення доменів, налаштованих на зловмисників". arXiv, 2016.

https://doi.org/10.48550/ARXIV.1610.01969

Ширазі, Хоссейн, Брухадешвар Безавада, Індракші Рей та Чарльз Андерсон. "Атаки вибірки проти виявлення фішингу". У Безпека та конфіденційність даних і додатків XXXIII, за редакцією Саймона Н. Фолі, 11559:83-101. Чам: Springer International Publishing, 2019.

https://doi.org/10.1007/978-3-030-22479-0_5

Ерба, Алессандро, Ріккардо Таорміна, Стефано Галеллі, Марчелло Польяні, Мікеле Кармінаті, Стефано Дзанеро та Нільс Оле Тіппенгауер. "Атаки з обмеженим приховуванням на детектори аномалій на основі реконструкції в промислових системах управління". Щорічна конференція з комп'ютерної безпеки, 480-95, 2020.

https://doi.org/10.1145/3427228.3427660

Кулешов, Володимир, Шантану Такур, Тінгфунг Лау та Стефано Ермон. "Змагальні приклади для задач класифікації природної мови", 15 лютого 2018 року.

https://openreview.net/forum?id=r1QZ3zbAZ

Деметріо, Лука, Баттіста Біджіо, Джованні Лагоріо, Фабіо Ролі та Алессандро Армандо. "Пояснення вразливостей глибокого навчання до двійкових файлів шкідливого програмного забезпечення". arXiv, 2019.

https://doi.org/10.48550/ARXIV.1901.03583

Куппа, Адітья, Славомір Гжонковський, Мухаммад Різван Асгар та Ньєн-Ан Ле-Хак. "Атаки "чорних скриньок" на детектори глибоких аномалій". У матеріалах 14-ї Міжнародної конференції з доступності, надійності та безпеки, 1-10. Кентербері, Каліфорнія, Великобританія: ACM, 2019.

https://doi.org/10.1145/3339252.3339266

Жибер, Даніель, Карлес Матеу та Хорді Планес. "Зростання машинного навчання для виявлення та класифікації шкідливого програмного забезпечення: Дослідницькі розробки, тенденції та виклики". Журнал мережевих та комп'ютерних додатків 153 (2020): 102526.

https://doi.org/10.1016/j.jnca.2019.102526

Розенберг, Іхай, Асаф Шабтай, Ювал Еловічі та Ліор Рокач. "Суперечливі атаки на основі машинного навчання та методи захисту в галузі кібербезпеки". arXiv, 13 березня 2021 року.

https://doi.org/10.48550/arXiv.2007.02407

Дякуємо, що підписалися на нашу розсилку!

Дякуємо! Отримано відповіді від Чіо, Кларенса та Девіда Фрімена. Машинне навчання та безпека: Захист систем за допомогою даних та алгоритмів. Перше видання. Севастополь, Каліфорнія: O'Reilly Media, 2018.

Чіо, Кларенс і Девід Фріман. Машинне навчання та безпека: Захист систем за допомогою даних та алгоритмів. Перше видання. Севастополь, Каліфорнія: O'Reilly Media, 2018.

Завантаження...

Завантаження...