Το generative AI φέρνει επανάσταση σε διάφορες βιομηχανίες, αλλά βοηθά και τους απατεώνες να πραγματοποιήσουν πιο αποτελεσματικές επιθέσεις και απάτες. Η δημιουργία βίντεο με χρήση τεχνητής νοημοσύνης χρησιμοποιείται συχνά σε απάτες πλαστοπροσωπίας. Γι’ αυτό το λόγο, πρέπει να είστε πολύ προσεκτικοί, καθώς έχουν αυξηθεί τα AI Video Call Scams (ψεύτικες βιντεοκλήσεις με AI).
Πώς λειτουργούν τα AI Video Call Scams;
Οι απατεώνες χρησιμοποιούν τεχνολογία deepfake για να υποδυθούν κάποιον και επικοινωνούν μαζί σας, με σκοπό να σας ξεγελάσουν και να κλέψουν χρήματα ή σημαντικά δεδομένα. Μπορεί να υποδύονται γνωστά άτομα που εμπιστεύεστε, κάποιον που γνωρίσατε στα social media και τον έχετε ερωτευτεί, έναν συνάδελφο ή κάποιον διάσημο.
Δείτε επίσης: Deepfake απάτες έχουν κοστίσει εκατομμύρια σε εταιρείες
Πώς να εντοπίσετε AI Video Call Scams;
Επί του παρόντος, η τεχνολογία deepfake που χρησιμοποιείται στις περισσότερες απάτες βιντεοκλήσεων δεν είναι η καλύτερη. Αν είστε προσεκτικοί, θα παρατηρήσετε κάποιες ασυνέπειες στην εικόνα ή τη φωνή.
Ανακάλυψη Αρχαίου Αιγυπτιακού Ναού σε Γκρεμό
Η Google μηνύει την κυβέρνηση των ΗΠΑ για υπερβολή
Νέα ανακάλυψη για τον μεγαλύτερο κρατήρα του Φεγγαριού!
Παρατηρήστε πράγματα όπως εκφράσεις προσώπου που δεν ταιριάζουν απόλυτα, αν το φόντο του βίντεο αλλάζει περίεργα, αν η φωνή να ακούγεται κάπως επίπεδη. Ο κακός συγχρονισμός μεταξύ της φωνής και της κίνησης του στόματος είναι άλλη μια σημαντική ένδειξη. Παρατηρήστε, ακόμα, αν το κεφάλι έχει σωστό μέγεθος με βάση το υπόλοιπο σώμα και ελέγξτε για πιθανές διαφορές στο χρώμα του δέρματος του λαιμού και του προσώπου. Για να καταλάβετε αν κάτι είναι deepfake, μπορείτε να ψάξετε και για πλεόνασμα δακτύλων, ποδιών, χεριών ή για παράξενη όψη των άκρων σε στατικές εικόνες.
Δείτε επίσης: Το AI μπορεί να ενδυναμώσει τις επιθέσεις social engineering
Πώς να προστατευτείτε από AI Video Call Scams και γενικά απάτες Deepfake
Επαληθεύστε την ταυτότητα του καλούντος
Βεβαιωθείτε ότι η κλήση προέρχεται από τον σωστό αριθμό τηλεφώνου ή όνομα λογαριασμού. Για εφαρμογές όπως το Teams ή το Zoom, ελέγξτε το email που έστειλε το room code.
Εάν εξακολουθείτε να ανησυχείτε, ζητήστε τους να επαληθεύσουν την ταυτότητά τους με άλλα μέσα. Για παράδειγμα, δοκιμάστε να τους στείλετε μήνυμα σε επίσημο κανάλι επικοινωνίας. Αν γνωρίζετε καλά το άτομο, κάντε του πιο προσωπικές ερωτήσεις για να δείτε αν μπορεί να απαντήσει σωστά.
Μην δίνετε ευαίσθητες πληροφορίες
Μην μοιράζεστε σημαντικές πληροφορίες, όπως τραπεζικά στοιχεία μέσω μηνυμάτων και κλήσεων. Αν μάλιστα υπάρχει πίεση να μοιραστείτε ευαίσθητα δεδομένα, θεωρήστε το ακόμα πιο ύποπτο. Αυτές οι πληροφορίες θα πρέπει να παρέχονται μέσω ασφαλών μεθόδων και θα πρέπει να έχετε το χρόνο για να επαληθεύσετε τη νομιμότητα της πηγής.
Δείτε επίσης: Το ChatGPT-4o μπορεί να χρησιμοποιηθεί σε φωνητικές απάτες
Αν κάποιος προσπαθήσει να σας ανακατευθύνει σε ένα έγγραφο Google ή σε PDF μέσω μιας βιντεοκλήσης, ζητήστε του να το στείλει από το email της εργασίας του. Στη συνέχεια, αφιερώστε λίγο χρόνο για να το δείτε και να επαληθεύσετε ότι αυτή είναι μια νόμιμη διεύθυνση email, προτού κάνετε κλικ στον σύνδεσμο.
Καθώς η τεχνολογία συνεχίζει να εξελίσσεται, είναι σημαντικό να παραμείνετε σε εγρήγορση και να υιοθετήσετε προστατευτικά μέτρα, όπως η επαλήθευση της ταυτότητας των συμμετεχόντων και η χρήση ισχυρών πρωτοκόλλων ασφαλείας, για να μετριαστεί ο κίνδυνος να πέσετε θύματα αυτών των παραπλανητικών τακτικών. Επιπλέον, είναι σημαντικό να εκπαιδεύονται άτομα και οργανισμοί σχετικά με τις διάφορες μορφές AI Video Call Scams.
Πηγή: www.makeuseof.com