AI στην εγκληματικότητα στον κυβερνοχώρο

Πώς το AI αλλάζει την αλυσίδα δολοφονίας στον κυβερνοχώρο

Οι επιθετικές επιχειρήσεις στον κυβερνοχώρο είναι σκόπιμες ενέργειες που διεξάγονται στον κυβερνοχώρο για τη διείσδυση, τη διατάραξη ή την καταστροφή αντίπαλων συστημάτων για την επίτευξη στρατηγικών στόχων. Συνήθως διαμορφώνονται μέσω της Αλυσίδα δολοφονίας στον κυβερνοχώρο, ένα πλαίσιο που αναπτύχθηκε αρχικά από την Lockheed Martin. Το πλαίσιο αναλύει μια επίθεση σε μια δομημένη ακολουθία φάσεων, παρακολουθώντας την πορεία του αντιπάλου από την αρχική αναγνώριση έως τις τελικές ενέργειες που γίνονται για την επίτευξη των στόχων (π.χ., διαρροή ή καταστροφή δεδομένων).

2

2

Οπλοποίηση

Σύζευξη εκμετάλλευσης με κερκόπορτα σε παραδοτέο ωφέλιμο φορτίο

Παράδοση

Παράδοση οπλισμένου πακέτου στο θύμα μέσω ηλεκτρονικού ταχυδρομείου, διαδικτύου, USB κ.λπ.

3

3

4

4

Εκμετάλλευση

Εκμετάλλευση ευπάθειας για την εκτέλεση κώδικα στο σύστημα του θύματος

Εγκατάσταση

Εγκατάσταση κακόβουλου λογισμικού στο περιουσιακό στοιχείο

5

5

6

6

Διοίκηση και έλεγχος (C2)

Κανάλι εντολών για απομακρυσμένο χειρισμό του θύματος

Δράσεις για τους στόχους

Με την πρόσβαση "Hands on Keyboard", οι εισβολείς επιτυγχάνουν τους αρχικούς τους στόχους

7

7

Τα τελευταία χρόνια, οι επιθετικές επιχειρήσεις στον κυβερνοχώρο έχουν ενταθεί τόσο σε όγκο όσο και σε πολυπλοκότητα. Οι παγκόσμιες κυβερνοεπιθέσεις όχι μόνο αυξάνονται απότομα αλλά και διαφοροποιούνται ως προς τον τύπο τους.: το 2022, 27% των παγκόσμιων κυβερνοεπιθέσεων βασίζονταν σε εκβιασμούς, 21% αφορούσαν backdoors και 17% ransomware.. Η τεχνητή νοημοσύνη (AI) παίζει σημαντικό ρόλο σε αυτή την κλιμάκωση και διαφοροποίηση, επιτρέποντας νέες μορφές επιθέσεων όπως τα deepfakes ή το κακόβουλο λογισμικό σμήνος, ενώ παράλληλα ενισχύει παραδοσιακούς φορείς όπως το phishing ή η εκμετάλλευση ευπαθειών. Σύμφωνα με το Παγκόσμια έρευνα CFO, ένα εντυπωσιακό ποσοστό 85% των επαγγελματιών της ασφάλειας στον κυβερνοχώρο αποδίδει την αύξηση των επιθέσεων στην οπλοποίηση των γεννητικών AI. Στο Μπενγκαλούρου της Ινδίας, μια κρατική έκθεση επιβεβαίωσε αυτή την τάση: μέχρι τις αρχές του 2025, 80% των ηλεκτρονικών μηνυμάτων ηλεκτρονικού "ψαρέματος" είχαν δημιουργηθεί με AI.

Το AI μετασχηματίζει την ίδια την αλυσίδα δολοφονίας στον κυβερνοχώρο και έχει την δυνατότητα υπερφόρτωσης κάθε σταδίου επιθετικών εκστρατειών στον κυβερνοχώρο. Η ταχύτητα και η κλίμακα με την οποία το AI αναδιαμορφώνει αυτή την αλυσίδα έχει καταστεί επιτακτική ανησυχία για την εθνική ασφάλεια.

Αυτή η εργαλειοθήκη επικεντρώνεται ειδικά στο AI ως παράγοντα που επιτρέπει επιθέσεις, διερευνώντας πώς μετασχηματίζει τα διάφορα στάδια της αλυσίδας δολοφονίας στον κυβερνοχώρο.

Αναγνωριστικό

Ο επιτιθέμενος συλλέγει πληροφορίες σχετικά με τον στόχο, όπως στοιχεία εργαζομένων, μηνύματα ηλεκτρονικού ταχυδρομείου ή δεδομένα συστήματος, για να σχεδιάσει την επίθεσή του.

Πώς το AI αλλάζει την αναγνώριση:

Το AI αυτοματοποιεί και επιταχύνει τη συλλογή πληροφοριών ανοικτού κώδικα με την επεξεργασία μεγάλου όγκου δημόσιων δεδομένων (μέσα κοινωνικής δικτύωσης, εταιρικοί ιστότοποι, αρχεία που διέρρευσαν) και με την εξαγωγή δομημένων αντικειμένων, όπως υποτομείς, πιθανές σειρές IP και προφίλ εργαζομένων. Μειώνει επίσης το εμπόδιο δεξιοτήτων για στοχευμένη κοινωνική μηχανική, παράγοντας συνοπτικά προφίλ θυμάτων κατάλληλα για spear-phishing.
Έκταση των επιπτώσεων: Υψηλή. Η αυτοματοποιημένη OSINT μειώνει σημαντικά τον απαιτούμενο χρόνο και την απαιτούμενη εμπειρογνωμοσύνη.

Επισημαίνεται η περίπτωση: ChatGPT ως βοηθός αναγνώρισης

Το 2024, η ερευνήτρια κυβερνοασφάλειας Sheetal Tamara δημοσίευσε μια εργασία που δείχνει πώς μεγάλα γλωσσικά μοντέλα όπως το ChatGPT μπορούν να επιταχύνουν σημαντικά τη φάση αναγνώρισης μιας επίθεσης. Αντί να ξοδεύει ώρες γράφοντας σενάρια και συλλέγοντας χειροκίνητα πληροφορίες ανοικτού κώδικα, ο ερευνητής χρησιμοποίησε μια σύντομη σειρά από προτροπές συνομιλίας, για παράδειγμα: "Απαριθμήστε όλα τα subdomains που μπορείτε να βρείτε για το examplecompany.com", "Συνοψίστε την τοπολογία δικτύου της εταιρείας με βάση τις δημόσια διαθέσιμες πληροφορίες" και "Προσδιορίστε ποια λειτουργικά συστήματα και υπηρεσίες είναι πιθανότερο να εκτελούνται σε αυτούς τους διακομιστές".

Μέσα σε λίγα λεπτά, το μοντέλο παρήγαγε χρήσιμο αναγνωριστικό υλικό, όπως:

  • έναν κατάλογο τομέων και υποτομέων που σχετίζονται με την εταιρεία-στόχο
  • πιθανές περιοχές διευθύνσεων IP
  • σημειώσεις σχετικά με τις διαμορφώσεις SSL/TLS, τις πιθανές ανοικτές θύρες και τις κοινές υπηρεσίες
  • δημόσιες πληροφορίες εργαζομένων (από το LinkedIn και τα δελτία τύπου) που θα μπορούσαν να χρησιμοποιηθούν για spear-phishing.

Εκεί που η συλλογή OSINT θα απαιτούσε κανονικά ώρες ή ημέρες χειρωνακτικής εργασίας, το πείραμα μείωσε το έργο σε μια ροή εργασίας που απαιτεί πολύ λιγότερες τεχνικές γνώσεις. Συνεπώς, η μελέτη υπογραμμίζει τον τρόπο με τον οποίο τα παραγωγικά μοντέλα μπορούν να μειώσουν το εμπόδιο στην αυτοματοποιημένη αναγνώριση, με σαφείς επιπτώσεις στην αμυντική πρακτική και στη μοντελοποίηση απειλών.

Περαιτέρω αναγνώσματα

Οπλοποίηση

Ο επιτιθέμενος χρησιμοποιεί τις πληροφορίες που αποκαλύπτονται κατά τη διάρκεια της αναγνώρισης για να κατασκευάσει ή να προσαρμόσει ένα κακόβουλο ωφέλιμο φορτίο (π.χ. κακόβουλο λογισμικό ή exploits) και να εκμεταλλευτεί τις αδυναμίες του στόχου.

Πώς το AI αλλάζει την οπλοποίηση:

Το AI απλοποιεί τη δημιουργία και τη ρύθμιση κακόβουλων ωφέλιμων φορτίων με τη δημιουργία ή την τροποποίηση κώδικα και τη δοκιμή παραλλαγών έναντι μοντέλων ανίχνευσης. Αυτό μπορεί να παράγει πιο διακριτά, προσαρμοστικά και στοχευμένα ωφέλιμα φορτία, συμπεριλαμβανομένων πολυμορφικών παραλλαγών που αλλάζουν την εμφάνισή τους με κάθε εκτέλεση. Η αντιπαθητική δοκιμή μπορεί να χρησιμοποιηθεί για την τελειοποίηση των ωφέλιμων φορτίων πριν από την ανάπτυξή τους.

Έκταση των επιπτώσεων: Υψηλή. Η αυτοματοποίηση επιταχύνει και κλιμακώνει την ανάπτυξη του ωφέλιμου φορτίου.

Επισημαίνεται η περίπτωση: AI-generated malware dropper in the wild

Το 2024, αναλυτές κυβερνοασφάλειας εντόπισε μια εκστρατεία phishing που αρχικά φαινόταν συνηθισμένη: μια σειρά μηνυμάτων ηλεκτρονικού ταχυδρομείου που διανέμουν ένα συμβατικό ωφέλιμο φορτίο κακόβουλου λογισμικού. Ωστόσο, η προσεκτικότερη εξέταση του dropper (δηλαδή του μικρού προγράμματος που είναι υπεύθυνο για την εγκατάσταση και την ενεργοποίηση του πρωτογενούς κακόβουλου λογισμικού) αποκάλυψε ένα ασυνήθιστο χαρακτηριστικό.

Η δομή και η σύνταξη του dropper έδειχναν ότι είχε παραχθεί από ένα μεγάλο γλωσσικό μοντέλο και όχι από άνθρωπο-προγραμματιστή. Παρόλο που λειτουργούσε ως ένα απλό wrapper, το dropper που παρήγαγε το AI ήταν τόσο γυαλισμένο όσο και αποτελεσματικό, επιδεικνύοντας την ικανότητα να αποφεύγει τις παραδοσιακές μεθόδους ανίχνευσης. Παρέκαμψε με επιτυχία τις βασικές υπογραφές antivirus και παρέδωσε το κακόβουλο λογισμικό όπως προβλεπόταν.

Το εύρημα αυτό ήταν αξιοσημείωτο ως μία από τις πρώτες επιβεβαιωμένες περιπτώσεις κακόβουλου κώδικα που δημιουργήθηκε από το AI και αναπτύχθηκε στη φύση. Ενώ το υποκείμενο κακόβουλο λογισμικό δεν ήταν νέο, η ανάθεση μέρους της διαδικασίας δημιουργίας όπλων στην AI αποτέλεσε σημαντική εξέλιξη. Έδειξε πώς οι επιτιθέμενοι μπορούσαν να κλιμακώσουν τις επιχειρήσεις, να μειώσουν το κόστος ανάπτυξης και να προσαρμοστούν ταχύτερα, ενώ ταυτόχρονα περιέπλεκαν τις προσπάθειες ανίχνευσης και αντιμετώπισης.

Περαιτέρω αναγνώσματα

Παράδοση

Ο επιτιθέμενος εξαπολύει την επίθεση μεταδίδοντας το κακόβουλο ωφέλιμο φορτίο στον στόχο, συχνά μέσω ηλεκτρονικών μηνυμάτων ηλεκτρονικού "ψαρέματος", ψεύτικων ιστότοπων ή μη ασφαλών δικτύων.

Πώς το AI αλλάζει την παράδοση:

Το AI προσαρμόζει και χρονομετρά τους μηχανισμούς παράδοσης για να μεγιστοποιήσει την επιτυχία. Αυτοματοποιεί τη δημιουργία πειστικού περιεχομένου phishing, deepfakes σε πραγματικό χρόνο, προσαρμοστικές αλληλεπιδράσεις συνομιλίας και ρεαλιστικές απατηλές ιστοσελίδες και χρησιμοποιεί δεδομένα αναγνώρισης για να επιλέξει τη βέλτιστη στιγμή και το βέλτιστο κανάλι για την παράδοση. Αυτό μειώνει την ανάγκη για ανθρώπινες δεξιότητες κατά την εκτέλεση των εκστρατειών.

Έκταση των επιπτώσεων: Υψηλή. Το AI αυξάνει αισθητά την πειστικότητα και την αυτοματοποίηση της παράδοσης.

Επισημαίνεται η περίπτωση: Διευθύνων Σύμβουλος στην Arup

Το 2024, το προσωπικό του Βρετανική εταιρεία μηχανικών Arup έλαβε αυτό που φαινόταν να είναι μια νόμιμη βιντεοκλήση από τον περιφερειακό διευθύνοντα σύμβουλό τους. Το στέλεχος ζήτησε επειγόντως τη μεταφορά κεφαλαίων σε σχέση με μια εμπιστευτική συναλλαγή. Το άτομο στην οθόνη αναπαρήγαγε την εμφάνιση, τη φωνή και τους τρόπους συμπεριφοράς του διευθύνοντος συμβούλου με αξιοσημείωτη ακρίβεια.

Στην πραγματικότητα, ο καλών δεν ήταν το στέλεχος, αλλά ένα deepfake που δημιουργήθηκε μέσω του AI και σχεδιάστηκε για να τον μιμηθεί σε πραγματικό χρόνο. Πεπεισμένο για την αυθεντικότητα της αλληλεπίδρασης, το προσωπικό ενέκρινε μια σειρά μεταφορών ύψους σχεδόν 25 εκατομμυρίων δολαρίων ΗΠΑ.

Το περιστατικό αυτό αποτελεί μία από τις μεγαλύτερες αναφερθείσες περιπτώσεις κοινωνικής μηχανικής με χρήση του AI κατά τη φάση παράδοσης μιας κυβερνοεπίθεσης. Δείχνει ότι το phishing δεν χρειάζεται πλέον να εξαρτάται από κακοσχεδιασμένα μηνύματα ηλεκτρονικού ταχυδρομείου ή αμφίβολους συνδέσμους. Αντίθετα, το AI επιτρέπει πλέον την ανάπτυξη εξαιρετικά ρεαλιστικών μιμήσεων ήχου και βίντεο που παρακάμπτουν όχι μόνο τους τεχνικούς ελέγχους αλλά και την ανθρώπινη κρίση και εμπιστοσύνη.

Περαιτέρω αναγνώσματα

Εκμετάλλευση

Ο επιτιθέμενος ενεργοποιεί το ωφέλιμο φορτίο για να εκμεταλλευτεί μια ευπάθεια και να αποκτήσει μη εξουσιοδοτημένη πρόσβαση στο σύστημα-στόχο. Αφού διεισδύσει στον οργανισμό, ο εισβολέας χρησιμοποιεί αυτή την πρόσβαση για να κινηθεί πλευρικά μεταξύ των συστημάτων για να βρει σχετικές πληροφορίες (π.χ. ευαίσθητα δεδομένα, πρόσθετες ευπάθειες, διακομιστές ηλεκτρονικού ταχυδρομείου κ.λπ.) και να βλάψει τον οργανισμό.

Πώς το AI αλλάζει την εκμετάλλευση:

Το AI βοηθά τους επιτιθέμενους στον εντοπισμό, την κατανόηση και την εκμετάλλευση των αδυναμιών του συστήματος, αυτοματοποιώντας την ανακάλυψη ευπαθειών (για παράδειγμα, έξυπνο fuzzing και καθοδηγούμενη σάρωση), κατασκευάζοντας δέντρα επιθέσεων και προτείνοντας μονοπάτια εκμετάλλευσης. Μπορεί επίσης να παράγει αντίπαλες εισόδους που παρακάμπτουν εργαλεία ασφαλείας ή εκμεταλλεύονται άμυνες.

Έκταση των επιπτώσεων: Μέτρια. Το AI βελτιώνει την ταχύτητα και την αποτελεσματικότητα της ανακάλυψης, ιδίως έναντι πολύπλοκων συστημάτων.

Επισημαίνεται η περίπτωση: σκουλήκι Morris II AI

Το 2024, ερευνητές κατέδειξε μια νέα μορφή αυτοδιαδιδόμενου σκουληκιού που δεν βασιζόταν στην εκμετάλλευση συμβατικών τρωτών σημείων λογισμικού. Αντ' αυτού, στόχευε τα ίδια τα συστήματα AI.

Ονομασία Morris II με αναφορά στο διαβόητο Morris Worm του 1988, αυτή η επίθεση απόδειξης του σχεδίου χρησιμοποίησε αντίπαλες προτροπές για να χειραγωγήσει τα μοντέλα AI ώστε να αναπαράγουν και να διανείμουν κακόβουλες εντολές. Μόλις ένα σύστημα "μολυνθεί", το σκουλήκι μπορούσε να παράγει αυτόνομα περαιτέρω προτροπές που προκαλούσαν το AI να αναπαράγει την επίθεση και να τη μεταδώσει σε άλλα μοντέλα.

Σε αντίθεση με τα παραδοσιακά σκουλήκια, τα οποία συνήθως εκμεταλλεύονται κώδικα που δεν έχει επιδιορθωθεί, Morris II εξαπλώνονται εκμεταλλευόμενοι το άνοιγμα και το απρόβλεπτο της γενεσιουργού συμπεριφοράς του AI. Η επίδειξη υπογράμμισε ότι, καθώς οι οργανισμοί ενσωματώνουν όλο και περισσότερο το γενεσιουργό AI στις επιχειρησιακές ροές εργασίας, ενδέχεται να εκθέσουν νέες επιθέσεις όπου η ευπάθεια δεν βρίσκεται στον πηγαίο κώδικα αλλά στα δεδομένα εκπαίδευσης και στις αποκρίσεις του μοντέλου.

Περαιτέρω αναγνώσματα

Εγκατάσταση

Ο επιτιθέμενος εγκαθιστά κακόβουλο λογισμικό ή backdoors για να διατηρήσει (κρυφή) μόνιμη πρόσβαση και έλεγχο στο εσωτερικό του συστήματος-στόχου.

Πώς το AI αλλάζει την εγκατάσταση:

Το AI μπορεί να παράγει προσαρμοστικές τεχνικές επιμονής και να προτείνει τους πιο αποτελεσματικούς φορείς εγκατάστασης αναλύοντας τα δεδομένα προηγούμενων σταδίων, αλλά η πλήρης αυτοματοποίηση της διαφοροποιημένης, βαριάς σε αποφάσεις φάσης εγκατάστασης παραμένει περιορισμένη. Όπου εφαρμόζεται, το AI επιτρέπει στο κακόβουλο λογισμικό να τροποποιεί τη συμπεριφορά του για να αποφεύγει τον εντοπισμό και να επιλέγει τον βέλτιστο χρόνο και τα βέλτιστα σημεία εισόδου.

Έκταση των επιπτώσεων: Μέτρια. Το AI βελτιώνει την εμμονή και την αδιαφάνεια, αλλά η πλήρης αυτοματοποίηση παραμένει περιορισμένη, επειδή η εγκατάσταση απαιτεί αποφάσεις σε συνάρτηση με το πλαίσιο.

Επισημαίνεται η περίπτωση: Ransomware που μαθαίνει να κρύβεται

Το 2024, ερευνητές εισήγαγε ένα σύστημα γνωστό ως EGAN, ένα μοντέλο AI που αναπτύχθηκε για να διερευνήσει πώς το ransomware μπορεί να χρησιμοποιεί στρατηγικές μάθησης για να αποφύγει την ανίχνευση. Σε αντίθεση με το παραδοσιακό στατικό κακόβουλο λογισμικό, το οποίο είτε εντοπίζεται είτε παραβλέπεται, EGAN λειτουργεί μέσω επαναληπτικού πειραματισμού.

Το σύστημα τροποποιούσε επανειλημμένα τον κώδικα του ransomware, δοκιμάζοντας διαδοχικές παραλλαγές έως ότου παρήγαγε μία που μπορούσε να παρακάμψει τις άμυνες προστασίας από ιούς, διατηρώντας παράλληλα πλήρη λειτουργικότητα. Στην πραγματικότητα, το κακόβουλο λογισμικό "έμαθε" πώς να παρακάμπτει τους μηχανισμούς ανίχνευσης με βάση τις ανωμαλίες που είναι συνήθως αποτελεσματικοί στον εντοπισμό ύποπτης συμπεριφοράς.

Αν και δημιουργήθηκε σε ερευνητικό περιβάλλον, EGAN έδειξε πώς οι μηχανισμοί επιμονής με βάση το AI θα μπορούσαν να καταστήσουν το ransomware σημαντικά πιο δύσκολο να εντοπιστεί και να εξαλειφθεί μετά την ανάπτυξή του. Αντί να εξαρτάται από προκαθορισμένες τεχνικές αποφυγής, το κακόβουλο λογισμικό προσαρμόζεται δυναμικά, δημιουργώντας την προοπτική ενός σχεδόν "μη θανατηφόρου" κακόβουλου λογισμικού.

Περαιτέρω αναγνώσματα

Διοίκηση και έλεγχος

Αφού αποκτήσει τον έλεγχο πολλαπλών συστημάτων, ο επιτιθέμενος δημιουργεί ένα κέντρο ελέγχου για να τα εκμεταλλεύεται εξ αποστάσεως. Ο επιτιθέμενος εγκαθιστά απομακρυσμένη επικοινωνία με το παραβιασμένο σύστημα, μέσω διαφορετικών καναλιών (π.χ. web, DNS ή email) για να ελέγχει τις λειτουργίες και να αποφεύγει την ανίχνευση. Ο επιτιθέμενος χρησιμοποιεί διάφορες τεχνικές, όπως η απόκρυψη για να καλύψει τα ίχνη του και να αποφύγει την ανίχνευση, ή επιθέσεις άρνησης παροχής υπηρεσιών (DoS) για να αποσπάσει την προσοχή των επαγγελματιών ασφαλείας από τους πραγματικούς στόχους τους.

Πώς το AI αλλάζει τη διοίκηση και τον έλεγχο (C2):

Το AI επιτρέπει πιο συγκαλυμμένες επικοινωνίες C2 με τη δημιουργία κίνησης που μιμείται τη νόμιμη δραστηριότητα, το σχεδιασμό αλγορίθμων δημιουργίας πεδίου αποφυγής και την ενορχήστρωση αποκεντρωμένων, προσαρμοστικών botnets. Μπορεί επίσης να ρυθμίσει τη συμπεριφορά C2 ώστε να αποφύγει τους ανιχνευτές ανωμαλιών.

Έκταση των επιπτώσεων: Μέτρια. Το AI αυξάνει την πολυπλοκότητα και την ανθεκτικότητα του C2, αλλά οι επιχειρησιακοί περιορισμοί περιορίζουν την ευρεία υιοθέτηση.

Επισημαίνεται η περίπτωση: AI-συντονισμένα botnets, σμήνη με δικό τους μυαλό

Το 2023, ερευνητές κατέδειξε μια νέα μορφή botnet που τροφοδοτείται από το AI. Τα συμβατικά botnets βασίζονται συνήθως σε έναν κεντρικό διακομιστή εντολών και ελέγχου (C2), μέσω του οποίου ένας κεντρικός κόμβος εκδίδει οδηγίες που εκτελούν στη συνέχεια οι παραβιασμένες μηχανές ή "bots". Αυτή η αρχιτεκτονική, ωστόσο, μπορεί συχνά να διακοπεί μόλις οι αμυντικοί εντοπίσουν και απενεργοποιήσουν τον κεντρικό διακομιστή.

Το botnet με το AI υιοθέτησε ένα διαφορετικό μοντέλο. Κάθε κόμβος του δικτύου χρησιμοποιούσε ενισχυτική μάθηση για να καθορίσει αυτόνομα πότε να ξεκινήσει επιθέσεις, ποιους στόχους να ακολουθήσει και πώς να προσαρμόσει την τακτική του ως απάντηση στα αμυντικά μέτρα. Αντί να περιμένουν κεντρικές οδηγίες, τα ρομπότ συνεργάζονταν με αποκεντρωμένο τρόπο, λειτουργώντας ως μια μορφή αυτοοργανωμένης κυψέλης.

Αυτός ο σχεδιασμός κατέστησε το botnet πιο ανθεκτικό και πιο δύσκολο να εντοπιστεί. Ακόμη και αν εξουδετερώνονταν ορισμένοι κόμβοι, οι υπόλοιποι μπορούσαν να προσαρμοστούν και να συνεχίσουν να λειτουργούν. Για τους υπερασπιστές, το έργο δεν περιοριζόταν πλέον στη διακοπή λειτουργίας ενός μόνο διακομιστή, αλλά απαιτούσε την αντιμετώπιση ενός κατανεμημένου, προσαρμοστικού σμήνους παραβιασμένων μηχανών.

Περαιτέρω αναγνώσματα

Δράση για τους στόχους

Ο επιτιθέμενος εκτελεί τον απώτερο στόχο του, όπως η διαρροή δεδομένων, η κρυπτογράφηση δεδομένων ή η καταστροφή δεδομένων.

Πώς το AI αλλάζει τη δράση για τους στόχους:

Το AI επιταχύνει και βελτιώνει τις τελικές εργασίες μιας επίθεσης: αυτοματοποιημένη διαρροή δεδομένων, ιεράρχηση περιουσιακών στοιχείων υψηλής αξίας, εξατομικευμένα μηνύματα εκβιασμού και δημιουργία περιεχομένου μεγάλης κλίμακας για παραπληροφόρηση ή διασάλευση. Οι τελικές στρατηγικές αποφάσεις συχνά εξακολουθούν να απαιτούν ανθρώπινη κρίση, αλλά το AI συντομεύει την πορεία προς αυτές τις αποφάσεις.

Έκταση των επιπτώσεων: Μέτρια. Το AI επιταχύνει και κλιμακώνει τις αντικειμενικά προσανατολισμένες δραστηριότητες, αλλά δεν αντικαθιστά πλήρως την ανθρώπινη πρόθεση.

Επισημαίνεται η περίπτωση: AI, μια ενορχήστρωση ransomware με γνώμονα το AI

Το 2024, ερευνητές του Πανεπιστημίου της Νέας Υόρκης εισήγαγαν PromptLocker, ένα proof-of-concept σύστημα ransomware που ελέγχεται από ένα μεγάλο γλωσσικό μοντέλο. Σε αντίθεση με το συμβατικό ransomware, το οποίο ακολουθεί προκαθορισμένες συμπεριφορές, PromptLocker έπαιρνε αποφάσεις σε πραγματικό χρόνο και αυτοματοποιούσε πολλαπλά στάδια του κύκλου ζωής της επίθεσης. Κατά την επίδειξη το μοντέλο αυτονομήθηκε:

  • επιλέγουν τους πιο πολύτιμους στόχους μέσα σε ένα παραβιασμένο σύστημα,
  • απομόνωση ευαίσθητων δεδομένων πριν από την κρυπτογράφηση, αυξάνοντας την επιρροή επί των θυμάτων,
  • κρυπτογραφημένους τόμους και αρχεία για να αρνηθεί την πρόσβαση
  • δημιούργησε εξατομικευμένα σημειώματα λύτρων, προσαρμόζοντας τον τόνο και τις απαιτήσεις στο προφίλ του θύματος (για παράδειγμα, οικονομική δυνατότητα και τομέας).

Αν και η εργασία πραγματοποιήθηκε σε ελεγχόμενο ερευνητικό περιβάλλον, PromptLocker έδειξε πώς η γενετική AI μπορεί να αυτοματοποιήσει και να κλιμακώσει εργασίες που προηγουμένως απαιτούσαν ανθρώπινο σχεδιασμό, επιταχύνοντας έτσι την ικανότητα των επιτιθέμενων να επιτύχουν τους στόχους τους και να προσαρμοστούν στις μεταβαλλόμενες συνθήκες.

Περαιτέρω αναγνώσματα

Ερωτήσεις για συζήτηση

Βιβλιογραφία

'Μια φιλορωσική εκστρατεία παραπληροφόρησης χρησιμοποιεί δωρεάν εργαλεία AI για να τροφοδοτήσει μια "έκρηξη περιεχομένου" | WIRED'. Πρόσβαση 19 Σεπτεμβρίου 2025. https://www.wired.com/story/pro-russia-disinformation-campaign-free-ai-tools/. 

"Το PromptLocker Ransomware με την ισχύ του AI είναι απλώς ένα ερευνητικό έργο του NYU - ο κώδικας λειτούργησε ως τυπικό Ransomware, επιλέγοντας στόχους, διεισδύοντας σε επιλεγμένα δεδομένα και κρυπτογραφώντας τόμους | Tom's Hardware". Πρόσβαση στις 19 Σεπτεμβρίου 2025. https://www.tomshardware.com/tech-industry/cyber-security/ai-powered-promptlocker-ransomware-is-just-an-nyu-research-project-the-code-worked-as-a-typical-ransomware-selecting-targets-exfiltrating-selected-data-and-encrypting-volumes. 

Al-Karaki, Jamal, Muhammad Al-Zafar Khan και Marwan Omar. "Διερεύνηση των LLMs για την ανίχνευση κακόβουλου λογισμικού: arXiv:2409.07587. Έκδοση 1. Preprint, arXiv, 11 Σεπτεμβρίου 2024. https://doi.org/10.48550/arXiv.2409.07587. 

Anderson, Hyrum S., Anant Kharkar, Bobby Filar, David Evans και Phil Roth. 'Learning to Evade Static PE Machine Learning Malware Models via Reinforcement Learning'. arXiv:1801.08917. Preprint, arXiv, 30 Ιανουαρίου 2018. https://doi.org/10.48550/arXiv.1801.08917. 

Anis, Fatima, και Mohammad Hammoudeh. 'Weaponizing AI in Cyberattacks A Comparative Study of AI Powered Tools for Offensive Security'. Πρακτικά του 8ου διεθνούς συνεδρίου για τα μελλοντικά δίκτυα και τα κατανεμημένα συστήματα, ACM, 11 Δεκεμβρίου 2024, 283-90. https://doi.org/10.1145/3726122.3726164. 

Buchanan, Ben. "A National Security Research Agenda for Cybersecurity and Artificial Intelligence". Κέντρο για την ασφάλεια και την αναδυόμενη τεχνολογία, 2020. https://cset.georgetown.edu/publication/a-national-security-research-agenda-for-cybersecurity-and-artificial-intelligence/. 

Cohen, Stav, Ron Bitton και Ben Nassi. 'Έρχεται το σκουλήκι AI: Unleashing Zero-Click Worms That Target GenAI-Powered Applications'. arXiv:2403.02817. Έκδοση 1. Preprint, arXiv, 5 Μαρτίου 2024. https://doi.org/10.48550/arXiv.2403.02817. 

Commey, Daniel, Benjamin Appiah, Bill K. Frimpong, Isaac Osei, Ebenezer N. A. Hammond και Garth V. Crosby. "EGAN: Evolutional GAN for Ransomware Evasion". 2023 IEEE 48th Conference on Local Computer Networks (LCN), 2 Οκτωβρίου 2023, 1-9. https://doi.org/10.1109/LCN58197.2023.10223320. 

'Cyber Kill Chain® | Lockheed Martin'. Πρόσβαση 19 Σεπτεμβρίου 2025. https://www.lockheedmartin.com/en-us/capabilities/cyber/cyber-kill-chain.html. 

"Απειλές στον κυβερνοχώρο στην ΕΕ: Consilium". Πρόσβαση στις 22 Σεπτεμβρίου 2025. https://www.consilium.europa.eu/en/policies/top-cyber-threats/. 

'Οι απατεώνες του Deepfake υποδύονται τους διευθύνοντες συμβούλους του FTSE'. Πρόσβαση στις 19 Σεπτεμβρίου 2025. https://www.thetimes.com/business-money/technology/article/deepfake-fraudsters-impersonate-ftse-chief-executives-z9vvnz93l. 

Hack The Box. '5 Τεχνικές Anti-Forensics για να ξεγελάσετε τους ερευνητές (+ Παραδείγματα & Συμβουλές ανίχνευσης)'. Πρόσβαση 19 Σεπτεμβρίου 2025. https://www.hackthebox.com/blog/anti-forensics-techniques. 

'Οι χάκερ χρησιμοποιούν το AI για να αναλύσουν τις αναφορές πληροφοριών απειλών και το κακόβουλο λογισμικό "Vibe Code" | IT Pro'. Πρόσβαση 19 Σεπτεμβρίου 2025. https://www.itpro.com/security/hackers-are-using-ai-to-dissect-threat-intelligence-reports-and-vibe-code-malware. 

Hoover, Amanda. "Η νέα έξυπνη απάτη που δεν μπορεί να σταματήσει η τράπεζά σας". Business Insider. Accessed 19 September 2025. https://www.businessinsider.com/bank-account-scam-deepfakes-ai-voice-generator-crime-fraud-2025-5. 

Huynh, Nam, και Beiyu Lin. "Μεγάλα γλωσσικά μοντέλα για την παραγωγή κώδικα: arXiv:2503.01245. Preprint, arXiv, 2 Απριλίου 2025. https://doi.org/10.48550/arXiv.2503.01245. 

IBM Security X-Force Threat Intelligence Index 2023. n.d. 

Kolosnjaji, Bojan, Ambra Demontis, Battista Biggio, et al. 'Adversarial Malware Binaries: arXiv:1803.04173. Preprint, arXiv, 12 Μαρτίου 2018. https://doi.org/10.48550/arXiv.1803.04173. 

Li, Haoyuan, Hao Jiang, Tao Jin, et al. "DATE: Domain Adaptive Product Seeker for E-Commerce". arXiv:2304.03669. Preprint, arXiv, 7 Απριλίου 2023. https://doi.org/10.48550/arXiv.2304.03669. 

Mirsky, Yisroel, Ambra Demontis, Jaidip Kotak, et al. "The Threat of Offensive AI to Organizations". Υπολογιστές & Ασφάλεια 124 (Ιανουάριος 2023): 103006. https://doi.org/10.1016/j.cose.2022.103006. 

Piplai, Aritran, Sai Sree Laya Chukkapalli και Anupam Joshi. 'NAttack! Adversarial Attacks to Bypass a GAN Based Classifier Trained to Detect Network Intrusion'. 2020 IEEE 6th Intl Conference on Big Data Security on Cloud (BigDataSecurity), IEEE Intl Conference on High Performance and Smart Computing, (HPSC) και IEEE Intl Conference on Intelligent Data and Security (IDS), Μάιος 2020, 49-54. https://doi.org/10.1109/BigDataSecurity-HPSC-IDS49724.2020.00020. 

'Πολυμορφικό κακόβουλο λογισμικό AI: CardinalOps'. Πρόσβαση 19 Σεπτεμβρίου 2025. https://cardinalops.com/blog/polymorphic-ai-malware-detection/. 

Rid, Thomas. "Τα ψέματα που λέει η Ρωσία στον εαυτό της". Εξωτερικές Υποθέσεις, 30 Σεπτεμβρίου 2024. https://www.foreignaffairs.com/united-states/lies-russia-tells-itself. 

"Rs 938 Crore Lost to Cybercrooks since Jan | Bengaluru News - Times of India". Πρόσβαση στις 22 Σεπτεμβρίου 2025. https://timesofindia.indiatimes.com/city/bengaluru/rs-938-crore-lost-to-cybercrooks-since-jan/articleshow/122075324.cms. 

Schröer, Saskia Laura, Luca Pajola, Alberto Castagnaro, Giovanni Apruzzese και Mauro Conti. "Εκμετάλλευση του AI για επιθέσεις: On the Interplay between Adversarial AI and Offensive AI'. arXiv:2506.12519. Έκδοση 1. Preprint, arXiv, 14 Ιουνίου 2025. https://doi.org/10.48550/arXiv.2506.12519. 

Sewak, Mohit, Sanjay K. Sahay και Hemant Rathore. 'ADVERSARIALuscator: Adversarial-DRL Based Obfuscator and Metamorphic Malware SwarmGenerator". 2021 Διεθνές Κοινό Συνέδριο για τα Νευρωνικά Δίκτυα (IJCNN), 18 Ιουλίου 2021, 1-9. https://doi.org/10.1109/IJCNN52387.2021.9534016. 

Temara, Sheetal. 'Maximizing Penetration Testing Success with Effective Reconnaissance Techniques Using ChatGPT'. arXiv:2307.06391. Preprint, arXiv, 20 Μαρτίου 2023. https://doi.org/10.48550/arXiv.2307.06391. 

Townsend, Kevin. 'AI-Generated Malware Found in the Wild'. SecurityWeek, 24 Σεπτεμβρίου 2024. https://www.securityweek.com/ai-generated-malware-found-in-the-wild/. 

Yamin, Muhammad Mudassar, Mohib Ullah, Habib Ullah και Basel Katt. "Οπλισμένο AI για επιθέσεις στον κυβερνοχώρο". Περιοδικό Ασφάλειας Πληροφοριών και Εφαρμογών 57 (Μάρτιος 2021): 102722. https://doi.org/10.1016/j.jisa.2020.102722. 

Yang, Kai-Cheng, Danishjeet Singh και Filippo Menczer. "Χαρακτηριστικά και επικράτηση ψεύτικων προφίλ στα μέσα κοινωνικής δικτύωσης με πρόσωπα που δημιουργούνται από το AI". Journal of Online Trust and Safety 2, no. 4 (2024). https://doi.org/10.54501/jots.v2i4.197. 

Yu, Jingru, Yi Yu, Xuhong Wang, et al: arXiv:2407.15912. Preprint, arXiv, 22 Ιουλίου 2024. https://doi.org/10.48550/arXiv.2407.15912. 

Σας ευχαριστούμε για την εγγραφή σας στο ενημερωτικό μας δελτίο!

Σας ευχαριστώ! RSVP λαμβάνεται για AI στην κυβερνοεπίθεση

AI σε κυβερνοεπίθεση

Φόρτωση...

Φόρτωση...