ΑρχικήsecurityΑπατεώνες κάνουν κλωνοποίηση φωνής γνωστού ατόμου του θύματος για να αποσπάσουν χρήματα

Απατεώνες κάνουν κλωνοποίηση φωνής γνωστού ατόμου του θύματος για να αποσπάσουν χρήματα

Ειδικοί προειδοποιούν για τηλεφωνικές απάτες με τεχνητή νοημοσύνη (AI), όπου απατεώνες κάνουν κλωνοποίηση φωνής ενός γνωστού ατόμου του θύματος για να αποσπάσουν χρήματα.

κλωνοποίηση φωνής

Σύμφωνα με ερευνητές, οι απατεώνες χρησιμοποιούν διάφορα ρομπότ λογισμικού, κάποια εκ των οποίων φορτώνονται με γενετική τεχνητή νοημοσύνη, για να αντιγράφουν φωνές και να εξαπατούν με μεγαλύτερη αποτελεσματικότητα.

Σύμφωνα με την Ομοσπονδιακή Επιτροπή Εμπορίου, οι απάτες αυτού του είδους καταγράφηκαν συχνότερα από οποιονδήποτε άλλο τύπο απάτης στις Ηνωμένες Πολιτείες την περασμένη χρονιά.

Διαβάστε περισσότερα: Voice Cloning Challenge: Η FTC πληρώνει για μια καλή ιδέα για προστασία από την κλωνοποίηση φωνής μέσω AI

«Τον τελευταίο μήνα, τρεις οικογένειες έπεσαν θύματα κλοπής, με ζημιά πάνω από 11.000 δολάρια. Μια άλλη οικογένεια έπεσε θύμα και της έκλεψαν 100.000 δολάρια μέσω τηλεφωνικής απάτης με τη χρήση τεχνητής νοημοσύνης», δήλωσε ο Tony Braun, Διευθύνων Συνεργάτης στην Αμερικανική Ειδική Ερευνητική Ομάδα.

Οι απατεώνες συχνά χρησιμοποιούν τη φωνή αγαπημένων ατόμων ή ακόμα και αφεντικών για να αποσπάσουν οικονομικές πληροφορίες. “Πλέον παρατηρούμε αυτή την πρακτική και στον επιχειρηματικό κόσμο, όπου κλωνοποιούνταια φωνές των CEOs και CFOs για να αποκτήσουν πρόσβαση στο λογιστήριο” σύμφωνα με τον Tony Braun.

Οι ειδικοί λένε ότι οι απατεώνες μπορούν να χρησιμοποιήσουν την τεχνητή νοημοσύνη για να κλωνοποιήσουν φωνές και αριθμούς τηλεφώνων,

«Η τεχνητή νοημοσύνη αποτελεί μια εξαιρετική τεχνολογία με τη δυνατότητα να επιφέρει σημαντικά οφέλη στο περιβάλλον και την κοινωνία μας», σύμφωνα με τον Tony Braun, «Ωστόσο, υπάρχει και το αρνητικό αυτής της πλευράς που καταχράται από ορισμένους για κακόβουλο σκοπό, χωρίς να απαιτούνται υπολογιστικές γνώσεις».

Οι απατεώνες μπορούν να αντιγράψουν φωνές και να αποκτήσουν προσωπικές πληροφορίες μέσω των κοινωνικών δικτύων.

“Μόνο δύο δευτερόλεπτα ηχογράφησης της φωνής, μπορεί να είναι αρκετά για να κλωνοποιηθεί ολόκληρη η φωνή κάποιου”, δήλωσε ο Tony Braun. “Από τα 100 άτομα, τα 99 θα πιστέψουν ότι μια κλωνοποιημένη φωνή είναι η πραγματική φωνή.”

Δείτε ακόμη: Το TimbreStealer malware εξαπλώνεται μέσω απάτης phishing

Τι πρέπει να γνωρίζετε, σύμφωνα με τους ειδικούς, για να αποφύγετε αυτές τις απάτες;

κλωνοποίηση φωνής

“Αν δεχτείτε τηλεφώνημα από κάποιον απατεώνα που ασκεί φόβο και πίεση για να αποκτήσει πληροφορίες ή να σας παρακινήσει σε μια ενέργεια που εσείς δεν είστε σύμφωνοι, δεν είναι νόμιμο”, δήλωσε ο Braun. “Συνιστάται επίσης να δημιουργήσετε έναν προσωπικό κωδικό, μια μοναδική φράση που θα είναι γνωστή μόνο από τα στενά μέλη της οικογένειάς σας. Έτσι, αν λάβετε τηλεφώνημα από κάποιον που υποστηρίζει ότι υπάρχει έκτακτη ανάγκη, ζητήστε αυτή τη μοναδική φράση για να επιβεβαιώσετε την ταυτότητά του.

Πηγή: okcfox

SecNews
SecNewshttps://secnews.gr
In a world without fences and walls, who need Gates and Windows
spot_img

Εγγραφή στο Newsletter

* indicates required

FOLLOW US

LIVE NEWS