Ερευνητές έχουν δείξει ότι είναι δυνατό να γίνει κατάχρηση του API φωνής του OpenAI για το ChatGPT-4o, ένα προηγμένο chatbot LLM, για τη διεξαγωγή φωνητικών απατών με χαμηλά έως μέτρια ποσοστά επιτυχίας.
Δείτε επίσης: Το ChatGPT λαμβάνει νέα χρήσιμη δυνατότητα αναζήτησης
Το ChatGPT-4o είναι το πιο πρόσφατο μοντέλο τεχνητής νοημοσύνης της OpenAI που φέρνει νέες βελτιώσεις, όπως την ενσωμάτωση εισόδων και εξόδων κειμένου, φωνής και όρασης. Λόγω αυτών των νέων χαρακτηριστικών, η OpenAI ενσωμάτωσε διάφορες διασφαλίσεις για τον εντοπισμό και τον αποκλεισμό επιβλαβούς περιεχομένου, όπως η αναπαραγωγή μη εξουσιοδοτημένων φωνών.
Οι φωνητικές απάτες, που συχνά αναφέρονται ως vishing (φωνητικό ψάρεμα), είναι δόλιες προσπάθειες που πραγματοποιούνται μέσω τηλεφώνου για την εξαγωγή προσωπικών πληροφοριών από ανυποψίαστα άτομα. Οι απατεώνες χρησιμοποιούν διάφορες τακτικές, όπως η μίμηση τραπεζικών υπαλλήλων, κυβερνητικών παραγόντων ή εκπροσώπων εταιρειών, για να δημιουργήσουν μια αίσθηση επείγοντος και νομιμότητας. Πείθοντας τα θύματα να αποκαλύψουν ευαίσθητα δεδομένα, όπως αριθμούς πιστωτικών καρτών ή πληροφορίες κοινωνικής ασφάλισης, οι απατεώνες μπορούν να διαπράξουν κλοπή ταυτότητας ή οικονομική απάτη. Είναι σημαντικό να παραμείνετε σε επαγρύπνηση έναντι τέτοιων μεθόδων επαληθεύοντας την ταυτότητα του καλούντος, αποφεύγοντας την κοινή χρήση προσωπικών στοιχείων μέσω τηλεφώνου και αναφέροντας ύποπτες κλήσεις στις αρχές.
Το Black Basta Ransomware εξελίσσεται - Προσοχή!
Καταιγίδες μεγαλύτερες από τη Γη εντοπίστηκαν στον Δία
Black Basta ransomware: Όλες οι νέες τακτικές
Όπως έδειξαν στην εργασία τους οι ερευνητές της UIUC Richard Fang, Dylan Bowman και Daniel Kang, τα νέα τεχνολογικά εργαλεία που είναι διαθέσιμα αυτήν τη στιγμή χωρίς περιορισμούς δεν διαθέτουν επαρκείς διασφαλίσεις για την προστασία από πιθανή κατάχρηση από εγκληματίες στον κυβερνοχώρο και απατεώνες.
Αυτά τα εργαλεία μπορούν να χρησιμοποιηθούν για το σχεδιασμό και τη διεξαγωγή επιχειρήσεων απάτης μεγάλης κλίμακας χωρίς ανθρώπινη προσπάθεια, καλύπτοντας το κόστος των διακριτικών για συμβάντα δημιουργίας φωνής. Η εργασία διερευνά διάφορες απάτες, όπως τραπεζικές μεταφορές, εκκένωση δωροκάρτας, μεταφορές κρυπτογράφησης και κλοπή διαπιστευτηρίων για λογαριασμούς μέσων κοινωνικής δικτύωσης ή Gmail.
Δείτε ακόμα: ChatGPT Jailbreak: Ερευνητές παρακάμπτουν τις διασφαλίσεις AI
Οι πράκτορες AI που εκτελούν τις φωνητικές απάτες χρησιμοποιούν εργαλεία αυτοματισμού ChatGPT-4o με δυνατότητα φωνής για πλοήγηση σε σελίδες, εισαγωγή δεδομένων και διαχείριση κωδικών ελέγχου ταυτότητας δύο παραγόντων και συγκεκριμένων οδηγιών που σχετίζονται με απάτη.
Επειδή το ChatGPT-4o μερικές φορές αρνείται να χειριστεί ευαίσθητα δεδομένα όπως διαπιστευτήρια, οι ερευνητές χρησιμοποίησαν απλές τεχνικές άμεσης jailbreaking για να παρακάμψουν αυτές τις προστασίες και να πραγματοποιήσουν τις φωνητικές τους απάτες.
Αντί για πραγματικούς ανθρώπους, οι ερευνητές έδειξαν πώς αλληλεπιδρούσαν χειροκίνητα με τον πράκτορα AI, προσομοιώνοντας τον ρόλο ενός ευκολόπιστου θύματος, χρησιμοποιώντας πραγματικούς ιστότοπους όπως η Bank of America για να επιβεβαιώσουν επιτυχημένες συναλλαγές.
Συνολικά, τα ποσοστά επιτυχίας κυμαίνονταν από 20-60%, με κάθε προσπάθεια να απαιτεί έως και 26 ενέργειες προγράμματος περιήγησης και να διαρκεί έως και 3 λεπτά στα πιο περίπλοκα σενάρια.
Η κλοπή διαπιστευτηρίων από το Gmail πέτυχε στο 60% των περιπτώσεων, ενώ οι μεταφορές crypto και η κλοπή διαπιστευτηρίων από το Instagram λειτούργησαν μόνο στο 40% των περιπτώσεων.
Δείτε επίσης: Τα ζευγάρια χρησιμοποιούν το ChatGPT για να τσακωθούν
Όσον αφορά το κόστος, οι ερευνητές σημειώνουν ότι η εκτέλεση αυτών των απατών είναι σχετικά φθηνή, με κάθε επιτυχημένη υπόθεση να κοστίζει κατά μέσο όρο 0,75 $. Η απάτη τραπεζικής μεταφοράς, η οποία είναι πιο περίπλοκη, κοστίζει 2,51 $. Αν και είναι σημαντικά υψηλότερο, αυτό εξακολουθεί να είναι πολύ χαμηλό σε σύγκριση με το πιθανό κέρδος που μπορεί να αποκομιστεί από αυτό το είδος απάτης.
Πηγή: bleepingcomputer