Ένα αυξανόμενο κύμα απάτης με deepfake έχει κλέψει εκατομμύρια δολάρια από εταιρείες σε όλο τον κόσμο, και οι ειδικοί της κυβερνοασφάλειας προειδοποιούν ότι θα μπορούσε να επιδεινωθεί καθώς οι εγκληματίες χρησιμοποιούν γενετική τεχνητή νοημοσύνη για απάτες.
Ένα deepfake είναι ένα βίντεο, ήχος ή εικόνα ενός πραγματικού ατόμου που έχει ψηφιακά αλλοιωθεί και χειραγωγηθεί, συχνά μέσω τεχνητής νοημοσύνης.
Διαβάστε σχετικά: Deepfake: Πώς λειτουργεί και πώς να ανιχνεύσετε ψεύτικο περιεχόμενο;
Σε μία από τις μεγαλύτερες γνωστές περιπτώσεις φέτος, ένας εργαζόμενος σε οικονομικές υπηρεσίες στο Χονγκ Κονγκ εξαπατήθηκε και μεταβίβασε περισσότερα από 25 εκατομμύρια δολάρια σε απατεώνες που χρησιμοποιούσαν τεχνολογία deepfake και μεταμφιέστηκαν σε συναδέλφους σε βιντεοκλήση, ανέφεραν οι αρχές στα τοπικά μέσα ενημέρωσης τον Φεβρουάριο.
Η CISA προειδοποιεί για κρίσιμα ελαττώματα σε συστήματα ICS
NASA: Τηλεσκόπια απαθανάτισαν γαλαξίες που μοιάζουν με μάτια
Οι hackers Andariel χρησιμοποιούν τo Play Ransomware;
Την περασμένη εβδομάδα, η βρετανική μηχανική εταιρεία Arup επιβεβαίωσε στο CNBC ότι ήταν η εταιρεία που εμπλέκεται σε αυτή την υπόθεση, αλλά δεν μπορούσε να δώσει λεπτομέρειες για το θέμα λόγω της συνεχιζόμενης έρευνας.
Τέτοιες απειλές έχουν αυξηθεί ως αποτέλεσμα της δημοσιοποίησης του ChatGPT της Open AI — που κυκλοφόρησε το 2022 — το οποίο γρήγορα έφερε την τεχνολογία γενετικής τεχνητής νοημοσύνης στο κύριο ρεύμα, δήλωσε ο David Fairman, επικεφαλής πληροφοριών και επικεφαλής ασφάλειας στο APAC στη Netskope.
«Η δημόσια προσβασιμότητα αυτών των υπηρεσιών έχει χαμηλώσει το φράγμα εισόδου για τους κυβερνοεγκληματίες — δεν χρειάζεται πλέον να έχουν ειδικές τεχνολογικές δεξιότητες», δήλωσε ο Fairman.
Οι απάτες έχουν επεκταθεί, καθώς η τεχνολογία τεχνητής νοημοσύνης συνεχίζει να εξελίσσεται, πρόσθεσε.
Αυξανόμενη τάση
Διάφορες υπηρεσίες γενετικής τεχνητής νοημοσύνης μπορούν να χρησιμοποιηθούν για τη δημιουργία κειμένου, εικόνων και βίντεο που μοιάζουν με ανθρώπους, και ως εκ τούτου μπορούν να λειτουργήσουν ως ισχυρά εργαλεία για παράνομους παράγοντες που προσπαθούν να χειραγωγήσουν ψηφιακά και να αναδημιουργήσουν ορισμένα άτομα.
Ένας εκπρόσωπος της Arup είπε στο CNBC: «Όπως πολλές άλλες επιχειρήσεις σε όλο τον κόσμο, οι επιχειρήσεις μας υπόκεινται σε τακτικές επιθέσεις, συμπεριλαμβανομένης της απάτης τιμολογίων, των phishing scams, των φωνητικών πλαστογραφιών στο WhatsApp και των deepfakes.»
Ο εργαζόμενος σε οικονομικές υπηρεσίες φέρεται να είχε παραστεί στη βιντεοκλήση με άτομα που θεωρούνταν ότι ήταν ο οικονομικός διευθυντής της εταιρείας και άλλα μέλη του προσωπικού, οι οποίοι του ζήτησαν να κάνει μια μεταφορά χρημάτων. Ωστόσο, οι υπόλοιποι συμμετέχοντες σε αυτή τη συνάντηση ήταν, στην πραγματικότητα, ψηφιακά αναδημιουργημένα deepfakes.
Διαβάστε ακόμη: Ηνωμένο Βασίλειο: Τα deepfakes θα θέσουν σε κίνδυνο τις εκλογές
Η Arup επιβεβαίωσε ότι «ψευδείς φωνές και εικόνες» χρησιμοποιήθηκαν στο περιστατικό, προσθέτοντας ότι «ο αριθμός αυτών των επιθέσεων έχει αυξηθεί σημαντικά τους τελευταίους μήνες».
Τα κινέζικα κρατικά μέσα ενημέρωσης ανέφεραν μια παρόμοια περίπτωση στην επαρχία Shanxi, όπου μια γυναίκα υπάλληλος οικονομικών εξαπατήθηκε και μεταβίβασε 1,86 εκατομμύρια γιουάν (262.000 δολάρια) σε λογαριασμό χάκερ μετά από βιντεοκλήση με deepfake του αφεντικού της.
Το 2019, ο διευθύνων σύμβουλος μιας βρετανικής ενεργειακής εταιρείας φέρεται να μετέφερε 220.000 ευρώ (238.000 δολάρια) σε έναν χάκερ που είχε ψηφιακά μιμηθεί τον επικεφαλής της μητρικής του εταιρείας και ζήτησε μια μεταφορά σε έναν υποτιθέμενο προμηθευτή σε τηλεφωνική κλήση.
Τον Αύγουστο του περασμένου έτους, ερευνητές της εταιρείας κυβερνοασφάλειας Mandiant, η οποία ανήκει στην Google, κατέγραψαν αρκετές περιπτώσεις παράνομων δραστών που χρησιμοποιούσαν την τεχνολογία AI και deepfake για απάτες phishing, παραπληροφόρηση και άλλες παράνομες τεχνικές.
Τότε, η εταιρεία δήλωσε ότι η χρήση της τεχνολογίας για τέτοιες δραστηριότητες ήταν περιορισμένη, αλλά η αυξανόμενη διαθεσιμότητα νέων εργαλείων γεννητικής AI θα επιταχύνει την εφαρμογή της από κακόβουλους παράγοντες.
Ευρύτερες επιπτώσεις
Εκτός από τις άμεσες επιθέσεις, οι εταιρείες ανησυχούν όλο και περισσότερο για άλλους τρόπους με τους οποίους οι deepfake φωτογραφίες, βίντεο ή ομιλίες των ανωτέρων τους θα μπορούσαν να χρησιμοποιηθούν με κακόβουλους τρόπους, λένε οι ειδικοί κυβερνοασφάλειας.
Σύμφωνα με τον Jason Hogg, ειδικό κυβερνοασφάλειας και συνεργάτη εκτελεστικών στελεχών στην Great Hill Partners, τα deepfakes υψηλόβαθμων στελεχών εταιρειών μπορούν να χρησιμοποιηθούν για τη διάδοση ψευδών ειδήσεων για να χειριστούν τις τιμές των μετοχών, να δυσφημίσουν την εταιρεία και τις πωλήσεις της, και να διαδώσουν άλλη επιβλαβή παραπληροφόρηση.
Ειδικός πράκτορας του FBI, επισήμανε ότι η γεννητική AI μπορεί να δημιουργήσει deepfakes βασισμένα σε πλήθος ψηφιακών πληροφοριών, όπως περιεχόμενο που είναι διαθέσιμο στο κοινό στα κοινωνικά δίκτυα και άλλες πλατφόρμες μέσων.
Το 2022, ο Patrick Hillmann, επικεφαλής επικοινωνίας της Binance, ισχυρίστηκε σε μια ανάρτηση στο blog του ότι απατεώνες είχαν δημιουργήσει ένα deepfake του βασισμένο σε προηγούμενες συνεντεύξεις και τηλεοπτικές εμφανίσεις, χρησιμοποιώντας το για να εξαπατήσουν πελάτες και επαφές σε συναντήσεις.
Ο Fairman της Netskope είπε ότι τέτοια ρίσκα έχουν οδηγήσει ορισμένα στελέχη να αρχίσουν να διαγράφουν ή να περιορίζουν την παρουσία τους στο διαδίκτυο από φόβο ότι θα μπορούσε να χρησιμοποιηθεί ως πυρομαχικό από κυβερνοεγκληματίες.
Η τεχνολογία deepfake έχει ήδη γίνει ευρέως διαδεδομένη εκτός του εταιρικού κόσμου
Από ψεύτικες πορνογραφικές εικόνες έως βίντεο που προωθούν σκεύη μαγειρικής, διασημότητες όπως η Taylor Swift έχουν πέσει θύματα της τεχνολογίας deepfake. Τα deepfakes σε πολιτικά πρόσωπα έχουν επίσης εξαπλωθεί.
Εν τω μεταξύ, ορισμένοι απατεώνες έχουν δημιουργήσει deepfakes μελών της οικογένειας και φίλων ατόμων σε προσπάθειες να τους εξαπατήσουν για χρήματα.
Δείτε επίσης: Αμερικανοί νομοθέτες ασχολούνται με τα deepfakes μετά το σκάνδαλο με την Taylor Swift
Σύμφωνα με τον Hogg, τα ευρύτερα θέματα θα επιταχυνθούν και θα χειροτερέψουν για ένα διάστημα καθώς η πρόληψη του κυβερνοεγκλήματος απαιτεί προσεκτική ανάλυση για την ανάπτυξη συστημάτων, πρακτικών και ελέγχων για την άμυνα κατά των νέων τεχνολογιών.
Ωστόσο, οι ειδικοί κυβερνοασφάλειας δήλωσαν στο CNBC ότι οι εταιρείες μπορούν να ενισχύσουν την άμυνα τους ενάντια στις απειλές που στηρίζονται στην AI μέσω βελτιωμένης εκπαίδευσης προσωπικού, δοκιμών κυβερνοασφάλειας και απαιτώντας κωδικούς λέξεων και πολλαπλές εγκρίσεις για όλες τις συναλλαγές — κάτι που θα μπορούσε να είχε αποτρέψει περιπτώσεις όπως αυτή της Arup.
Πηγή: cnbc