Προηγμένη ανακάλυψη τρωτών σημείων και τεχνητή νοημοσύνη

Αυτή η ενότητα διερευνά τη διασταύρωση της ανακάλυψης ευπαθειών και της Τεχνητής Νοημοσύνης (ΤΝ), εστιάζοντας στον τρόπο με τον οποίο οι τεχνικές ΤΝ μπορούν να αυτοματοποιήσουν και να βελτιώσουν τον εντοπισμό ευπαθειών ασφαλείας σε λογισμικό και συστήματα. Καλύπτει τη χρήση μοντέλων μηχανικής μάθησης για την πρόβλεψη και τον εντοπισμό πιθανών αδυναμιών ασφαλείας, την εκπαίδευση της ΤΝ σε ιστορικά δεδομένα ευπαθειών και τις ηθικές εκτιμήσεις των αυτοματοποιημένων δοκιμών και της εκμετάλλευσης.

Πύλη > Τεχνητή νοημοσύνη > Προηγμένη ανακάλυψη τρωτών σημείων και τεχνητή νοημοσύνη

Δημιουργός προγράμματος σπουδών

Chio, Clarence, και David Freeman. Μηχανική μάθηση και ασφάλεια: Μαθηματική Μάθηση: Προστασία συστημάτων με δεδομένα και αλγορίθμους. Πρώτη έκδοση. Sebastopol, CA: O'Reilly Media, 2018.

Wang, Bolun, Yuanshun Yao, Bimal Viswanath, Haitao Zheng και Ben Y. Zhao. "Με τη μεγάλη εκπαίδευση έρχεται η μεγάλη ευπάθεια: Practical Attacks against Transfer Learning." Στα πρακτικά του 27ου συμποσίου για την ασφάλεια του συνεδρίου USENIX, 1281-97. SEC'18. ΗΠΑ: USENIX Association, 2018.

Anderson, Hyrum S., Jonathan Woodbridge και Bobby Filar. "DeepDGA: Adversarially-Tuned Domain Generation and Detection." arXiv, 2016.

https://doi.org/10.48550/ARXIV.1610.01969

Shirazi, Hossein, Bruhadeshwar Bezawada, Indrakshi Ray και Charles Anderson. "Adversarial Sampling Attacks Against Phishing Detection". In Data and Applications Security and Privacy XXXIII, edited by Simon N. Foley, 11559:83-101. Cham: Springer International Publishing, 2019.

https://doi.org/10.1007/978-3-030-22479-0_5

Erba, Alessandro, Riccardo Taormina, Stefano Galelli, Marcello Pogliani, Michele Carminati, Stefano Zanero και Nils Ole Tippenhauer. "Constrained Concealment Attacks against Reconstruction-Based Anomaly Detectors in Industrial Control Systems". Στο Ετήσιο Συνέδριο Εφαρμογών Ασφάλειας Υπολογιστών, 480-95, 2020.

https://doi.org/10.1145/3427228.3427660

Kuleshov, Volodymyr, Shantanu Thakoor, Tingfung Lau και Stefano Ermon. "Adversarial Examples for Natural Language Classification Problems," 15 Φεβρουαρίου 2018.

https://openreview.net/forum?id=r1QZ3zbAZ

Demetrio, Luca, Battista Biggio, Giovanni Lagorio, Fabio Roli και Alessandro Armando. "Explaining Vulnerabilities of Deep Learning to Adversarial Malware Binaries." arXiv, 2019.

https://doi.org/10.48550/ARXIV.1901.03583

Kuppa, Aditya, Slawomir Grzonkowski, Muhammad Rizwan Asghar και Nhien-An Le-Khac. "Black Box Attacks on Deep Anomaly Detectors". Στα πρακτικά του 14ου διεθνούς συνεδρίου για τη διαθεσιμότητα, την αξιοπιστία και την ασφάλεια, 1-10. Canterbury CA, Ηνωμένο Βασίλειο: ACM, 2019.

https://doi.org/10.1145/3339252.3339266

Gibert, Daniel, Carles Mateu και Jordi Planes. "Η άνοδος της μηχανικής μάθησης για την ανίχνευση και ταξινόμηση κακόβουλου λογισμικού: Ερευνητικές εξελίξεις, τάσεις και προκλήσεις". Journal of Network and Computer Applications 153 (2020): 102526.

https://doi.org/10.1016/j.jnca.2019.102526

Rosenberg, Ihai, Asaf Shabtai, Yuval Elovici και Lior Rokach. "Adversarial Machine Learning Attacks and Defense Methods in the Cyber Security Domain." arXiv, 13 Μαρτίου 2021.

https://doi.org/10.48550/arXiv.2007.02407

Σας ευχαριστούμε για την εγγραφή σας στο ενημερωτικό μας δελτίο!

Σας ευχαριστώ! RSVP ελήφθησαν για τους Chio, Clarence και David Freeman. Μηχανική μάθηση και ασφάλεια: Προστασία συστημάτων με δεδομένα και αλγορίθμους. Πρώτη έκδοση. Sebastopol, CA: O'Reilly Media, 2018.

Chio, Clarence, και David Freeman. Μηχανική μάθηση και ασφάλεια: Μαθηματική Μάθηση: Προστασία συστημάτων με δεδομένα και αλγορίθμους. Πρώτη έκδοση. Sebastopol, CA: O'Reilly Media, 2018.

Φόρτωση...

Φόρτωση...