Erweiterte Schwachstellenerkennung und KI

Dieses Modul untersucht die Schnittstelle von Schwachstellenerkennung und Künstlicher Intelligenz (KI) und konzentriert sich darauf, wie KI-Techniken die Identifizierung von Sicherheitslücken in Software und Systemen automatisieren und verbessern können. Es geht um die Verwendung von Modellen des maschinellen Lernens zur Vorhersage und Lokalisierung potenzieller Sicherheitslücken, das Training von KI auf der Grundlage historischer Schwachstellendaten und die ethischen Überlegungen zu automatisierten Tests und Ausnutzungen.

Portal > Künstliche Intelligenz > Erweiterte Schwachstellenerkennung und KI

Curriculum Builder

Chio, Clarence und David Freeman. Maschinelles Lernen und Sicherheit: Systeme mit Daten und Algorithmen schützen. Erstausgabe. Sebastopol, Kalifornien: O’Reilly Media, 2018.

Wang, Bolun, Yuanshun Yao, Bimal Viswanath, Haitao Zheng und Ben Y. Zhao. „Mit großartigem Training kommt große Verwundbarkeit: praktische Angriffe gegen Transferlernen.“ In Proceedings of the 27th USENIX Conference on Security Symposium, 1281–97. SEK’18. USA: USENIX Association, 2018.

Anderson, Hyrum S., Jonathan Woodbridge und Bobby Filar. „DeepDGA: Adversarially Tuned Domain Generation and Detection.“ arXiv, 2016.

https://doi.org/10.48550/ARXIV.1610.01969

Shirazi, Hossein, Bruhadeshwar Bezawada, Indrakshi Ray und Charles Anderson. „Adversarial Sampling Attacks against Phishing Detection.“ In Data and Applications Security and Privacy XXXIII, herausgegeben von Simon N. Foley, 11559:83–101. Cham: Springer International Publishing, 2019.

https://doi.org/10.1007/978-3-030-22479-0_5

Erba, Alessandro, Riccardo Taormina, Stefano Galelli, Marcello Pogliani, Michele Carminati, Stefano Zanero und Nils Ole Tippenhauer. „Eingeschränkte Tarnungsangriffe gegen rekonstruktionsbasierte Anomaliedetektoren in industriellen Steuerungssystemen.“ In der jährlichen Konferenz für Computersicherheitsanwendungen, 480–95, 2020.

https://doi.org/10.1145/3427228.3427660

Kuleshov, Volodymyr, Shantanu Thakoor, Tingfung Lau und Stefano Ermon. „Adversarial Examples for Natural Language Classification Problems“, 15. Februar 2018.

https://openreview.net/forum?id=r1QZ3zbAZ

Demetrio, Luca, Battista Biggio, Giovanni Lagorio, Fabio Roli und Alessandro Armando. „Erklärung der Schwachstellen von Deep Learning für gegnerische Malware-Binärdateien.“ arXiv, 2019.

https://doi.org/10.48550/ARXIV.1901.03583

Kuppa, Aditya, Slawomir Grzonkowski, Muhammad Rizwan Asghar und Nhien-An Le-Khac. „Black-Box-Angriffe auf Deep Anomaly Detectors.“ In Proceedings of the 14th International Conference on Availability, Reliability and Security, S. 1–10. Canterbury, Kalifornien, Vereinigtes Königreich: ACM, 2019.

https://doi.org/10.1145/3339252.3339266

Gibert, Daniel, Carles Mateu und Jordi Planes. „Der Aufstieg des maschinellen Lernens zur Erkennung und Klassifizierung von Malware: Forschungsentwicklungen, Trends und Herausforderungen.“ Zeitschrift für Netzwerk- und Computeranwendungen 153 (2020): 102526.

https://doi.org/10.1016/j.jnca.2019.102526

Rosenberg, Ihai, Asaf Shabtai, Yuval Elovici und Lior Rokach. „Adversarial Machine Learning Attacks and Defense Methods in the Cyber Security Domain.“ arXiv, 13. März 2021.

https://doi.org/10.48550/arXiv.2007.02407

Thank you for signing up to our newsletter!

Thank you! RSVP received for Chio, Clarence und David Freeman. Maschinelles Lernen und Sicherheit: Systeme mit Daten und Algorithmen schützen. Erstausgabe. Sebastopol, Kalifornien: O’Reilly Media, 2018.

Thank you for applying! We will be in touch.

Apply for: Chio, Clarence und David Freeman. Maschinelles Lernen und Sicherheit: Systeme mit Daten und Algorithmen schützen. Erstausgabe. Sebastopol, Kalifornien: O’Reilly Media, 2018.

Chio, Clarence und David Freeman. Maschinelles Lernen und Sicherheit: Systeme mit Daten und Algorithmen schützen. Erstausgabe. Sebastopol, Kalifornien: O’Reilly Media, 2018.

Laden...

Laden…