Розширене виявлення вразливостей та штучний інтелект

Цей модуль досліджує взаємозв’язок виявлення вразливостей та штучного інтелекту (ШІ), зосереджуючись на тому, як методи штучного інтелекту можуть автоматизувати та покращити виявлення вразливостей безпеки в програмному забезпеченні та системах. Він охоплює використання моделей машинного навчання для прогнозування та виявлення потенційних недоліків безпеки, навчання штучного інтелекту на історичних даних про вразливості, а також етичні міркування автоматизованого тестування та експлуатації.

Portal > Штучний інтелект > Розширене виявлення вразливостей та штучний інтелект

Конструктор навчальних програм

Чіо, Кларенс і Девід Фрімен. Машинне навчання та безпека: захист систем за допомогою даних та алгоритмів. Перше видання. Севастополь, Каліфорнія: O’Reilly Media, 2018.

Ван, Болун, Юаньшунь Яо, Бімал Вішванатх, Хайтао Чжен і Бен Ю. Чжао. «З хорошою підготовкою приходить велика вразливість: практичні атаки проти трансферного навчання». У матеріалах 27-го симпозіуму Конференції USENIX з безпеки, 1281–97. РОЗДІЛ 18. США: Асоціація USENIX, 2018.

Андерсон, Гайрум С., Джонатан Вудбрідж і Боббі Філар. “DeepDGA: змагально налаштована генерація та виявлення доменів.” arXiv, 2016.

https://doi.org/10.48550/ARXIV.1610.01969

Ширазі, Хоссейн, Брухадешвар Безавада, Індракші Рей і Чарльз Андерсон. «Атаки змагальної вибірки проти виявлення фішингу». У книзі «Безпека та конфіденційність даних і додатків XXXIII», під редакцією Саймона Н. Фолі, 11559: 83–101. – : Видавництво «Шпрінгер Інтернешнл», 2019.

https://doi.org/10.1007/978-3-030-22479-0_5

Ерба, Алессандро, Ріккардо Таорміна, Стефано Галеллі, Марчелло Польяні, Мікеле Кармінаті, Стефано Дзанеро та Нільс Оле Тіппенгауер. «Атаки з обмеженим приховуванням проти детекторів аномалій на основі реконструкції в промислових системах управління». У щорічній конференції з додатків комп’ютерної безпеки, 480–95, 2020.

https://doi.org/10.1145/3427228.3427660

Кулешов, Володимир, Шантану Тхакур, Тінгфунг Лау та Стефано Ермон. «Змагальні приклади для задач класифікації природної мови», 15 лютого 2018 року.

https://openreview.net/forum?id=r1QZ3zbAZ

Деметріо, Лука, Баттіста Бігджо, Джованні Лагоріо, Фабіо Ролі та Алессандро Армандо. «Пояснення вразливостей глибокого навчання до зловмисних двійкових систем». arXiv, 2019.

https://doi.org/10.48550/ARXIV.1901.03583

Куппа, Адітья, Славомір Гржонковський, Мухаммад Різван Асгар і Нхієн-Ан ле-Хач. «Чорна скринька атакує детектори глибоких аномалій». У матеріалах 14-ї Міжнародної конференції з доступності, надійності та безпеки, 1–10. Кентербері, Каліфорнія, Велика Британія: ACM, 2019.

https://doi.org/10.1145/3339252.3339266

Жибер, Даніель, Карлес Матеу та Жорді Планс. «Розвиток машинного навчання для виявлення та класифікації шкідливого програмного забезпечення: наукові розробки, тенденції та виклики». Журнал мережевих та комп’ютерних додатків 153 (2020): 102526.

https://doi.org/10.1016/j.jnca.2019.102526

Розенберг, Іхай, Асаф Шабтай, Ювал Еловичі та Ліор Рокач. «Атаки змагального машинного навчання та методи захисту в галузі кібербезпеки». arXiv, 13 березня 2021 р.

https://doi.org/10.48550/arXiv.2007.02407

Thank you for signing up to our newsletter!

Thank you! RSVP received for Чіо, Кларенс і Девід Фрімен. Машинне навчання та безпека: захист систем за допомогою даних та алгоритмів. Перше видання. Севастополь, Каліфорнія: O’Reilly Media, 2018.

Thank you for applying! We will be in touch.

Apply for: Чіо, Кларенс і Девід Фрімен. Машинне навчання та безпека: захист систем за допомогою даних та алгоритмів. Перше видання. Севастополь, Каліфорнія: O’Reilly Media, 2018.

Чіо, Кларенс і Девід Фрімен. Машинне навчання та безпека: захист систем за допомогою даних та алгоритмів. Перше видання. Севастополь, Каліфорнія: O’Reilly Media, 2018.

Loading...

Loading…