Το FBI προειδοποιεί ότι οι κυβερνοεγκληματίες χρησιμοποιούν generative AI (GenAI) για να ενισχύσουν τις πιθανότητες επιτυχίας των οικονομικών απατών και δίνει συμβουλές για την προστασία των χρηστών.
Μια νέα ειδοποίηση από το Internet Crime Complaint Center (IC3) του FBI υπογράμμισε πώς αυτά τα εργαλεία επιτρέπουν στους κυβερνοεγκληματίες να διαπράττουν απάτες σε μεγαλύτερη κλίμακα, αυξάνοντας παράλληλα την αξιοπιστία των σχεδίων τους.
Πώς χρησιμοποιούνται τα εργαλεία GenAI για τη διευκόλυνση οικονομικών απατών;
Το FBI παρατήρησε ότι τα εργαλεία GenAI χρησιμοποιούνται για να βοηθήσουν στην απάτη με διάφορους τρόπους.
Δημιουργία πιο ρεαλιστικών γραπτών μηνυμάτων
Οι εγκληματίες χρησιμοποιούν εργαλεία όπως το ChatGPT για να δημιουργήσουν γραπτά μηνύματα για επιθέσεις social engineering, όπως ρομαντικές και επενδυτικές-οικονομικές απάτες. Τα εργαλεία βοηθούν στη μετάφραση της γλώσσας για τον περιορισμό των γραμματικών ή ορθογραφικών λαθών, που θα μπορούσαν να κινήσουν υποψίες.
CES 2025: Τα πιο συναρπαστικά ρομπότ!
Η Samsung διορθώνει πολλαπλά ελαττώματα ασφαλείας
Most Innovative Robots of CES 2025
Δείτε επίσης: Οι απώλειες από crypto hacks και απάτες συνεχίζουν να μειώνονται!
Επιπλέον, τα μηνύματα μπορούν να δημιουργηθούν πιο γρήγορα, επιτρέποντας την προσέγγιση ενός ευρύτερου κοινού.
Το FBI πρόσθεσε ότι το GenAI δίνει τη δυνατότητα στους απατεώνες να δημιουργούν ψεύτικα προφίλ στα μέσα κοινωνικής δικτύωσης που εξαπατούν τα θύματα να στείλουν χρήματα.
Δημιουργία ψεύτικων εικόνων
Οι εγκληματίες δημιουργούν φωτογραφίες ανθρώπων, χρησιμοποιώντας εργαλεία τεχνητής νοημοσύνης, και τις χρησιμοποιούν ως εικόνες προφίλ σε μέσα κοινωνικής δικτύωσης, έγγραφα ταυτοποίησης κ.ά.
Επίσης, στέλνουν τέτοιες φωτογραφίες στα θύματα, όταν μιλούν ιδιωτικά, για να τα πείσουν ότι μιλούν με ένα πραγματικό πρόσωπο.
Σε πολλές περιπτώσεις, το GenAI χρησιμοποιείται και για τη δημιουργία φωτογραφιών διασημοτήτων ή προσώπων στα μέσα κοινωνικής δικτύωσης για την προώθηση πλαστών προϊόντων.
Υπήρξαν επίσης στοιχεία για ψεύτικες πορνογραφικές φωτογραφίες θυμάτων που χρησιμοποιούνται για εκβιασμό και απαίτηση χρημάτων.
Μίμηση φωνής και ψεύτικα βίντεο
Το FBI είπε ότι η τεχνολογία deepfake χρησιμοποιείται τώρα για την κλωνοποίηση φωνών και τη δημιουργία ψεύτικων βίντεο, με σκοπό τη διάπραξη απατών (οικονομικών και άλλων).
Για παράδειγμα, μπορεί να χρησιμοποιήσει κάποιος τεχνολογία GenAI για τη δημιουργία σύντομων ηχητικών αποσπασμάτων που ακούγονται σαν έναν στενό συγγενή ή φίλο του θύματος. Ο υποτιθέμενος συγγενής ή φίλος θα ζητήσει άμεση οικονομική βοήθεια και το θύμα είναι πιθανό να ανταποκριθεί.
Σε άλλες περιπτώσεις, οι εγκληματίες προσπαθούν να παρακάμψουν τους ελέγχους επαλήθευσης και να αποκτήσουν πρόσβαση σε τραπεζικούς λογαριασμούς, βρίσκοντας ηχητικά αποσπάσματα ατόμων και πλαστογραφώντας τα μέσω GenAI.
Δείτε επίσης: Phishing απάτη στοχεύει χρήστες Internet Banking
Από την άλλη μεριά, τα βίντεο, που δημιουργούνται μέσω AI, χρησιμοποιούνται για τη δημιουργία βιντεοκλήσεων σε πραγματικό χρόνο. Οι απατεώνες υποδύονται στελέχη μιας εταιρείας και επικοινωνούν με υπαλλήλους μιας άλλης εταιρείας για μια υποτιθέμενη συνεργασία. Τελικά, μπορεί να τους ζητούν να κάνουν πληρωμές, που είναι συνηθισμένες ανάμεσα σε συνεργάτες.
Προστασία από (οικονομικές) απάτες που χρησιμοποιούν GenAI
Το FBI εξέδωσε οδηγίες για την αποφυγή αυτών των απατών:
- Δημιουργήστε μια μυστική λέξη ή φράση με την οικογένειά σας για να επαληθεύσετε την ταυτότητά τους.
- Αναζητήστε ατέλειες σε εικόνες και βίντεο (π.χ. παραμορφωμένα χέρια).
- Ακούστε προσεκτικά τον τόνο φωνής και τη γλώσσα που χρησιμοποιεί κάποιος στο τηλέφωνο για να καταλάβετε αν μιλάτε όντως με κάποιο γνωστό σας.
- Μη δημοσιεύετε στο διαδίκτυο πολλές φωτογραφίες σας, ηχητικά αποσπάσματα και προσωπικές πληροφορίες.
- Κάντε ιδιωτικούς τους λογαριασμούς στα μέσα κοινωνικής δικτύωσης και περιορίστε τους ακόλουθους σε άτομα που γνωρίζετε.
- Επαληθεύστε την ταυτότητα του ατόμου που σας καλεί (κάνοντας σχετική έρευνα στο διαδίκτυο).
- Μην μοιράζεστε ευαίσθητες πληροφορίες με άτομα που έχετε γνωρίσει στο διαδίκτυο ή μέσω τηλεφώνου.
- Μην στέλνετε χρήματα, δωροκάρτες, κρυπτονομίσματα ή άλλα περιουσιακά στοιχεία σε άτομα που δεν γνωρίζετε.
Δείτε επίσης: BlueSky: Η αύξηση των χρηστών οδήγησε σε εμφάνιση crypto απατών
Πρόσφατα, ο Robert Grazioli, Chief Information Officer στην Ivanti, σχολίασε σχετικά με το GenAI και τις απάτες: “Καθώς το GenAI συνεχίζει να εξελίσσεται, πρέπει να κατανοηθούν οι επιπτώσεις του στην ασφάλεια στον κυβερνοχώρο. Αναμφίβολα, το GenAI εξοπλίζει τους επαγγελματίες της κυβερνοασφάλειας με ισχυρά εργαλεία, αλλά παρέχει επίσης στους εισβολείς προηγμένες δυνατότητες. Απαιτούνται νέες στρατηγικές για να αποτραπεί το κακόβουλο AI“.
Οι οργανισμοί πρέπει να διασφαλίσουν ότι διαθέτουν ισχυρά πρωτόκολλα κυβερνοασφάλειας που περιλαμβάνουν τακτικές ενημερώσεις, κοινή χρήση πληροφοριών σχετικά με νέες απειλές και εκπαίδευση εργαζομένων σχετικά με τις βέλτιστες πρακτικές για τον εντοπισμό και την απόκριση σε πιθανές απειλές.
Πηγή: www.infosecurity-magazine.com