Zaawansowane wykrywanie podatności i sztuczna inteligencja

Moduł ten bada skrzyżowanie wykrywania luk w zabezpieczeniach i sztucznej inteligencji (AI), koncentrując się na tym, w jaki sposób techniki AI mogą zautomatyzować i usprawnić identyfikację luk w zabezpieczeniach oprogramowania i systemów. Obejmuje on wykorzystanie modeli uczenia maszynowego do przewidywania i lokalizowania potencjalnych luk w zabezpieczeniach, szkolenie sztucznej inteligencji na podstawie historycznych danych o podatnościach oraz etyczne aspekty zautomatyzowanego testowania i wykorzystywania.

Portal > Sztuczna inteligencja > Zaawansowane wykrywanie podatności i sztuczna inteligencja

Kreator programów nauczania

Chio, Clarence i David Freeman. Machine Learning and Security: Protecting Systems with Data and Algorithms. Wydanie pierwsze. Sebastopol, CA: O'Reilly Media, 2018.

Wang, Bolun, Yuanshun Yao, Bimal Viswanath, Haitao Zheng i Ben Y. Zhao. "With Great Training Comes Great Vulnerability: Practical Attacks against Transfer Learning". In Proceedings of the 27th USENIX Conference on Security Symposium, 1281-97. SEC'18. USA: USENIX Association, 2018.

Anderson, Hyrum S., Jonathan Woodbridge i Bobby Filar. "DeepDGA: Adversarially-Tuned Domain Generation and Detection." arXiv, 2016.

https://doi.org/10.48550/ARXIV.1610.01969

Shirazi, Hossein, Bruhadeshwar Bezawada, Indrakshi Ray i Charles Anderson. "Adversarial Sampling Attacks Against Phishing Detection". In Data and Applications Security and Privacy XXXIII, pod redakcją Simona N. Foleya, 11559:83-101. Cham: Springer International Publishing, 2019.

https://doi.org/10.1007/978-3-030-22479-0_5

Erba, Alessandro, Riccardo Taormina, Stefano Galelli, Marcello Pogliani, Michele Carminati, Stefano Zanero i Nils Ole Tippenhauer. "Ograniczone ataki ukrywające przeciwko detektorom anomalii opartym na rekonstrukcji w przemysłowych systemach sterowania". In Annual Computer Security Applications Conference, 480-95, 2020.

https://doi.org/10.1145/3427228.3427660

Kuleshov, Volodymyr, Shantanu Thakoor, Tingfung Lau i Stefano Ermon. "Adversarial Examples for Natural Language Classification Problems", 15 lutego 2018 r.

https://openreview.net/forum?id=r1QZ3zbAZ

Demetrio, Luca, Battista Biggio, Giovanni Lagorio, Fabio Roli i Alessandro Armando. "Explaining Vulnerabilities of Deep Learning to Adversarial Malware Binaries". arXiv, 2019.

https://doi.org/10.48550/ARXIV.1901.03583

Kuppa, Aditya, Sławomir Grzonkowski, Muhammad Rizwan Asghar i Nhien-An Le-Khac. "Black Box Attacks on Deep Anomaly Detectors". In Proceedings of the 14th International Conference on Availability, Reliability and Security, 1-10. Canterbury CA Wielka Brytania: ACM, 2019.

https://doi.org/10.1145/3339252.3339266

Gibert, Daniel, Carles Mateu i Jordi Planes. "The Rise of Machine Learning for Detection and Classification of Malware: Rozwój badań, trendy i wyzwania". Journal of Network and Computer Applications 153 (2020): 102526.

https://doi.org/10.1016/j.jnca.2019.102526

Rosenberg, Ihai, Asaf Shabtai, Yuval Elovici i Lior Rokach. "Adversarial Machine Learning Attacks and Defense Methods in the Cyber Security Domain", arXiv, 13 marca 2021 r.

https://doi.org/10.48550/arXiv.2007.02407

Dziękujemy za zapisanie się do naszego newslettera!

Dziękujemy! Otrzymano RSVP dla Chio, Clarence'a i Davida Freemana. Uczenie maszynowe i bezpieczeństwo: Protecting Systems with Data and Algorithms. Wydanie pierwsze. Sebastopol, CA: O'Reilly Media, 2018.

Chio, Clarence i David Freeman. Machine Learning and Security: Protecting Systems with Data and Algorithms. Wydanie pierwsze. Sebastopol, CA: O'Reilly Media, 2018.

Ładowanie...

Ładowanie...