Geavanceerde kwetsbaarheidsdetectie en AI

Deze module onderzoekt het raakvlak tussen het opsporen van kwetsbaarheden en kunstmatige intelligentie (AI), met de nadruk op hoe AI-technieken het identificeren van beveiligingskwetsbaarheden in software en systemen kunnen automatiseren en verbeteren. Het behandelt het gebruik van machine learning-modellen om potentiële beveiligingsfouten te voorspellen en te lokaliseren, het trainen van AI op historische kwetsbaarheidsgegevens en de ethische overwegingen van geautomatiseerd testen en exploiteren.

Portaal > Kunstmatige intelligentie > Geavanceerde kwetsbaarheidsdetectie en AI

Curriculumbouwer

Chio, Clarence en David Freeman. Machine Learning and Security: Protecting Systems with Data and Algorithms. Eerste editie. Sebastopol, CA: O’Reilly Media, 2018.

Wang, Bolun, Yuanshun Yao, Bimal Viswanath, Haitao Zheng en Ben Y. Zhao. “With Great Training Comes Great Vulnerability: Practical Attacks against Transfer Learning.” In Proceedings of the 27th USENIX Conference on Security Symposium, 1281–97. SEC’18. VS: USENIX Association, 2018.

Anderson, Hyrum S., Jonathan Woodbridge en Bobby Filar. “DeepDGA: Adversarially-Tuned Domain Generation and Detection.” arXiv, 2016.

https://doi.org/10.48550/ARXIV.1610.01969

Shirazi, Hossein, Bruhadeshwar Bezawada, Indrakshi Ray en Charles Anderson. “Adversarial Sampling Attacks Against Phishing Detection.” In Data and Applications Security and Privacy XXXIII, onder redactie van Simon N. Foley, 11559:83–101. Cham: Springer International Publishing, 2019.

https://doi.org/10.1007/978-3-030-22479-0_5

Erba, Alessandro, Riccardo Taormina, Stefano Galelli, Marcello Pogliani, Michele Carminati, Stefano Zanero en Nils Ole Tippenhauer. “Constrained Concealment Attacks against Reconstruction-Based Anomaly Detectors in Industrial Control Systems” (Beperkte verbergingsaanvallen tegen op reconstructie gebaseerde anomaliedetectoren in industriële controlesystemen). In Annual Computer Security Applications Conference, 480–95, 2020.

https://doi.org/10.1145/3427228.3427660

Kuleshov, Volodymyr, Shantanu Thakoor, Tingfung Lau en Stefano Ermon. “Adversarial Examples for Natural Language Classification Problems” (Tegenstrijdige voorbeelden voor classificatieproblemen in natuurlijke taal), 15 februari 2018.

https://openreview.net/forum?id=r1QZ3zbAZ

Demetrio, Luca, Battista Biggio, Giovanni Lagorio, Fabio Roli en Alessandro Armando. “Explaining Vulnerabilities of Deep Learning to Adversarial Malware Binaries” (Verklaring van kwetsbaarheden van deep learning voor vijandige malwarebinaries). arXiv, 2019.

https://doi.org/10.48550/ARXIV.1901.03583

Kuppa, Aditya, Slawomir Grzonkowski, Muhammad Rizwan Asghar en Nhien-An Le-Khac. “Black Box Attacks on Deep Anomaly Detectors.” In Proceedings of the 14th International Conference on Availability, Reliability and Security, 1–10. Canterbury CA Verenigd Koninkrijk: ACM, 2019.

https://doi.org/10.1145/3339252.3339266

Gibert, Daniel, Carles Mateu en Jordi Planes. “De opkomst van machine learning voor detectie en classificatie van malware: ontwikkelingen, trends en uitdagingen in onderzoek.” Journal of Network and Computer Applications 153 (2020): 102526.

https://doi.org/10.1016/j.jnca.2019.102526

Rosenberg, Ihai, Asaf Shabtai, Yuval Elovici en Lior Rokach. “Adversarial Machine Learning Attacks and Defense Methods in the Cyber Security Domain” (Aanvallen met vijandige machine learning en verdedigingsmethoden op het gebied van cyberbeveiliging). arXiv, 13 maart 2021.

https://doi.org/10.48550/arXiv.2007.02407

Bedankt voor uw aanmelding voor onze nieuwsbrief!

Bedankt! RSVP ontvangen voor Chio, Clarence en David Freeman. Machine Learning and Security: Protecting Systems with Data and Algorithms. Eerste editie. Sebastopol, CA: O’Reilly Media, 2018.

Chio, Clarence en David Freeman. Machine Learning and Security: Protecting Systems with Data and Algorithms. Eerste editie. Sebastopol, CA: O’Reilly Media, 2018.

Bezig met laden...

Bezig met laden...