Zaawansowane wykrywanie luk w zabezpieczeniach i sztuczna inteligencja

W tym module omówiono skrzyżowanie wykrywania luk w zabezpieczeniach i sztucznej inteligencji (AI), koncentrując się na tym, w jaki sposób techniki sztucznej inteligencji mogą zautomatyzować i usprawnić identyfikację luk w zabezpieczeniach oprogramowania i systemów. Obejmuje on wykorzystanie modeli uczenia maszynowego do przewidywania i lokalizowania potencjalnych luk w zabezpieczeniach, szkolenie sztucznej inteligencji na podstawie historycznych danych dotyczących luk w zabezpieczeniach oraz kwestie etyczne związane z automatycznym testowaniem i wykorzystywaniem.

Portal > Sztuczna inteligencja > Zaawansowane wykrywanie luk w zabezpieczeniach i sztuczna inteligencja

Curriculum Builder

Chio, Clarence’a i Davida Freemanów. Uczenie maszynowe i bezpieczeństwo: ochrona systemów za pomocą danych i algorytmów. Wydanie pierwsze. Sewastopol, Kalifornia: O’Reilly Media, 2018.

Wang, Bolun, Yuanshun Yao, Bimal Viswanath, Haitao Zheng i Ben Y. Zhao. „Z doskonałym szkoleniem wiąże się wielka podatność: praktyczne ataki na uczenie transferowe”. W: Proceedings of the 27th USENIX Conference on Security Symposium, 1281–97. SEK’18. Stany Zjednoczone: USENIX Association, 2018.

Andersona, Hyruma S., Jonathana Woodbridge’a i Bobby’ego Filara. „DeepDGA: Generowanie i wykrywanie domen dostrojonych przez przeciwników.” arXiv, 2016.

https://doi.org/10.48550/ARXIV.1610.01969

Shirazi, Hossein, Bruhadeshwar Bezawada, Indrakshi Ray i Charles Anderson. „Niepożądane ataki próbkowania przeciwko wykrywaniu phishingu”. W: Data and Applications Security and Privacy XXXIII, pod redakcją Simona N. Foleya, 11559:83–101. : Springer International Publishing, 2019.

https://doi.org/10.1007/978-3-030-22479-0_5

Erba, Alessandro, Riccardo Taormina, Stefano Galelli, Marcello Pogliani, Michele Carminati, Stefano Zanero i Nils Ole Tippenhauer. „Ograniczone ataki maskujące na detektory anomalii oparte na rekonstrukcji w przemysłowych systemach sterowania”. W: Annual Computer Security Applications Conference, 480–95, 2020.

https://doi.org/10.1145/3427228.3427660

Kuleszow, Wołodymyr, Shantanu Thakoor, Tingfung Lau i Stefano Ermon. „Niepożądane przykłady problemów z klasyfikacją języka naturalnego”, 15 lutego 2018 r.

https://openreview.net/forum?id=r1QZ3zbAZ

Demetrio, Luca, Battista Biggio, Giovanni Lagorio, Fabio Roli i Alessandro Armando. „Wyjaśnienie luk w zabezpieczeniach uczenia głębokiego w przypadku nieprzyjaznych plików binarnych złośliwego oprogramowania.” arXiv, 2019.

https://doi.org/10.48550/ARXIV.1901.03583

Kuppa, Aditya, Sławomir Grzonkowski, Muhammad Rizwan Asghar i Nhien-An Le-Khac. „Ataki czarnych skrzynek na detektory głębokich anomalii”. W: Proceedings of the 14th International Conference on Availability, Reliability and Security, 1–10. Canterbury, CA, Wielka Brytania: ACM, 2019.

https://doi.org/10.1145/3339252.3339266

Samoloty Giberta, Daniela, Carlesa Mateu i Jordiego. „Rozwój uczenia maszynowego w wykrywaniu i klasyfikacji złośliwego oprogramowania: rozwój badań, trendy i wyzwania”. Dziennik Aplikacji Sieciowych i Komputerowych 153 (2020): 102526.

https://doi.org/10.1016/j.jnca.2019.102526

Rosenberg, Ihai, Asaf Shabtai, Yuval Elovici i Lior Rokach. „Niepożądane ataki uczenia maszynowego i metody obrony w dziedzinie cyberbezpieczeństwa.” arXiv, 13 marca 2021 r.

https://doi.org/10.48550/arXiv.2007.02407

Thank you for signing up to our newsletter!

Thank you! RSVP received for Chio, Clarence’a i Davida Freemanów. Uczenie maszynowe i bezpieczeństwo: ochrona systemów za pomocą danych i algorytmów. Wydanie pierwsze. Sewastopol, Kalifornia: O’Reilly Media, 2018.

Thank you for applying! We will be in touch.

Apply for: Chio, Clarence’a i Davida Freemanów. Uczenie maszynowe i bezpieczeństwo: ochrona systemów za pomocą danych i algorytmów. Wydanie pierwsze. Sewastopol, Kalifornia: O’Reilly Media, 2018.

Chio, Clarence’a i Davida Freemanów. Uczenie maszynowe i bezpieczeństwo: ochrona systemów za pomocą danych i algorytmów. Wydanie pierwsze. Sewastopol, Kalifornia: O’Reilly Media, 2018.

Loading...

Loading…