Scammers ή εγκληματίες χρησιμοποιούν deepfakes και κλεμμένα προσωπικά αναγνωρίσιμα στοιχεία κατά τη διάρκεια διαδικτυακών συνεντεύξεων για remote tech jobs, σύμφωνα με το FBI.
Εάν παίρνετε συνέντευξη από κάποιον μέσω βιντεοκλήσης και παρατηρήσετε ότι φτερνίζεται ή βήχει χωρίς να κινεί το πρόσωπό του, πιθανότατα πρόκειται για deepfake. Το FBI προειδοποιεί για αύξηση του αριθμού των εγκληματιών που χρησιμοποιούν deepfakes, σε συνδυασμό με κλεμμένα Personally Identifiable Information (PII), σε συνεντεύξεις για θέσεις εργασίας τεχνολογίας που επιτρέπουν την πρόσβαση σε ευαίσθητα δεδομένα πελατών.
Δείτε επίσης: Deepfakes: Η τεχνητή νοημοσύνη αλλάζει την πραγματικότητα μας
Τα deepfakes κυκλοφορούν εδώ και μερικά χρόνια. Αρχικά χρησιμοποιήθηκαν για να τοποθετήσουν τα πρόσωπα διασημοτήτων στα σώματα ενήλικων ηθοποιών για να δημιουργήσουν ένα είδος πορνό που δημιουργήθηκε από AI, το οποίο απαγορεύεται στις περισσότερες πλατφόρμες. Η διαδικασία έχει προχωρήσει ολοένα και περισσότερο από τότε, οδηγώντας σε νόμους που έχουν σχεδιαστεί για να προστατεύουν από πολιτικά και πορνογραφικά deepfakes και εταιρείες που αγωνίζονται να βρουν τρόπους να τα αναγνωρίσουν.
Mark Zuckerberg: Ο δεύτερος πλουσιότερος άνθρωπος
Ένα «νέο αστέρι» φωτίζεται στο νυχτερινό ουρανό
Mark Zuckerberg: Έγινε ο δεύτερος πλουσιότερος άνθρωπος! 💰💰
Η προειδοποίηση που εκδόθηκε από το FBI αναφέρει ότι έχουν ληφθεί περισσότερες καταγγελίες για deepfakes που χρησιμοποιούνται σε συνεντεύξεις για απομακρυσμένες θέσεις εργασίας, συμπεριλαμβανομένων εκείνων για τεχνολογία πληροφοριών και προγραμματισμό υπολογιστών, βάσεις δεδομένων και εργασίες που σχετίζονται με software.
Δείτε επίσης: Facebook: καταπολεμά τα deepfakes όχι όμως την παραπληροφόρηση
Τα deepfakes περιλαμβάνουν ένα video image ή μια εγγραφή που έχει σχεδιαστεί για να παραποιήσει κάποιον ως υποψήφιο για εργασία. Για να γίνουν πιο πειστικοί, αυτοί οι εγκληματίες συχνά κλέβουν τα PII όσων μιμούνται για να περάσουν οποιονδήποτε έλεγχο ταυτότητας κάνει ο πιθανός εργοδότης.
Το FBI γράφει ότι οι ενέργειες και οι κινήσεις των χειλιών συχνά δεν συντονίζονται με τον ήχο του ατόμου που μιλάει. «Κατά καιρούς, ενέργειες όπως ο βήχας, το φτάρνισμα ή άλλες ακουστικές ενέργειες δεν ευθυγραμμίζονται με αυτό που παρουσιάζεται οπτικά», ανέφερε η υπηρεσία.
Ο απώτερος στόχος είναι να προσληφθούν για την απομακρυσμένη θέση, δίνοντας στους μιμητές πρόσβαση σε PII πελατών, οικονομικά δεδομένα, εταιρικές βάσεις δεδομένων πληροφορικής και ιδιόκτητες πληροφορίες, οι οποίες στη συνέχεια κλέβονται.
Δείτε επίσης: TikTok: Νέο χαρακτηριστικό διευκολύνει τη δημιουργία deepfakes!
Οι δόλιες επιθέσεις σε διαδικασίες recruitment δεν είναι μια νέα απειλή, αλλά η χρήση των deepfakes σε συνεντεύξεις είναι νέα.
Πηγή πληροφοριών: techspot.com