ΑρχικήsecurityVoice Cloning Challenge: Η FTC πληρώνει για μια καλή ιδέα για προστασία...

Voice Cloning Challenge: Η FTC πληρώνει για μια καλή ιδέα για προστασία από την κλωνοποίηση φωνής μέσω AI

Η Ομοσπονδιακή Επιτροπή Εμπορίου των ΗΠΑ (FTC) έχει διοργανώσει έναν δημόσιο διαγωνισμό με το όνομα Voice Cloning Challenge, στον οποίο μπορούν να συμμετάσχουν άτομα για να δώσουν ιδέες σχετικά με την προστασία των καταναλωτών από τον κίνδυνο της κλωνοποίησης φωνής μέσω εργαλείων AI. Ο διαγωνισμός προσφέρει χρηματικά έπαθλα, με το μεγαλύτερο να φτάνει τα 25.000 $.

Voice Cloning Challenge

Το Challenge ανακοινώθηκε στα μέσα Νοεμβρίου 2023, σε μια προσπάθεια να βρεθούν τρόποι αντιμετώπισης της κακής χρήσης της τεχνολογίας κλωνοποίησης φωνής. Όλο και περισσότεροι κακόβουλοι χρήστες χρησιμοποιούν αυτή την τεχνική για απάτες, αξιοποιώντας τη βελτιωμένη τεχνολογία μετατροπής κειμένου σε ομιλία, με τη βοήθεια της τεχνητής νοημοσύνης.

Η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για την κλωνοποίηση της φωνής κάποιου ατόμου, αναλύοντας ένα ηχητικό κλιπ του. Ακούγοντας το άτομο να μιλά, το AI μπορεί να εξαγάγει μοναδικά φωνητικά χαρακτηριστικά και στη συνέχεια να χρησιμοποιήσει τα δεδομένα εκπαίδευσης για τη δημιουργία ομιλίας που μοιάζει με τη φωνή του στόχου.

Δείτε επίσης: Bad Bunny: Έξαλλος με AI-generated τραγούδι που μιμείται τη φωνή του

Οι εγκληματίες του κυβερνοχώρου χρησιμοποιούν την τεχνολογία αυτή για δόλιες δραστηριότητες όπως φωνητικό phishing, social engineering και άλλες απάτες που βασίζονται στη φωνή. Οι απατεώνες μπορούν να χρησιμοποιήσουν την κλωνοποίηση φωνής μέσω AI για να προσποιηθούν ότι είναι ένα άτομο που ο παραλήπτης εμπιστεύεται, όπως ένα μέλος της οικογένειας, ένας φίλος ή ένας επαγγελματίας, όπως ένας τραπεζίτης ή ένας δικηγόρος.

Η τεχνολογία φωνητικής κλωνοποίησης δημιουργεί σημαντικό κίνδυνο: οι οικογένειες και οι μικρές επιχειρήσεις μπορούν να βρεθούν στο στόχαστρο απατεώνων στα πλαίσια εκβιασμών“, αναφέρει η Ομοσπονδιακή Επιτροπή Εμπορίου, προωθώντας το Voice Cloning Challenge.

Παραδείγματα απατών

Μια από τις πιο εντυπωσιακές περιπτώσεις απάτης με τη χρήση της κλωνοποίησης φωνής μέσω AI ήταν όταν ένας CEO μιας βρετανικής ενεργειακής εταιρείας έπεσε θύμα απάτης. Οι απατεώνες χρησιμοποίησαν την τεχνολογία για να αντιγράψουν τη φωνή του αφεντικού της μητρικής εταιρείας, ζητώντας την άμεση μεταφορά 220.000 δολαρίων.

Δείτε επίσης: Η Scarlett Johansson κινείται νομικά εναντίον του Lisa AI app επειδή μιμήθηκε τη φωνή της

Σε άλλη περίπτωση, ένας απατεώνας χρησιμοποίησε την τεχνολογία κλωνοποίησης φωνής μέσω AI για να αντιγράψει τη φωνή ενός δικηγόρου και να ζητήσει την κατάθεση χρημάτων σε έναν νέο λογαριασμό. Ο πελάτης του δικηγόρου παρασύρθηκε και κατέθεσε τα χρήματα, πιστεύοντας ότι εκείνος το είχε ζητήσει.

κλωνοποίηση φωνής μέσω AI

Τέλος, ένας απατεώνας χρησιμοποίησε την τεχνολογία κλωνοποίησης φωνής για να αντιγράψει τη φωνή ενός ασφαλιστικού πράκτορα και να παρασύρει έναν πελάτη να καταθέσει χρήματα.

Για την αποτροπή αυτών των κινδύνων, η FTC δημιούργησε το Voice Cloning Challenge. Ο οργανισμός το αποκαλεί “μια διερευνητική πρόκληση” που θα μπορούσε ενδεχομένως να δώσει μια κατεύθυνση για τον μετριασμό του κινδύνου.

Η νικήτρια πρόταση θα λάβει 25.000 $. Η δεύτερη καλύτερη πρόταση θα λάβει 4.000 $, ενώ υπάρχουν έως και τρεις τιμητικές διακρίσεις, οι οποίες απονέμονται με $2.000 η καθεμιά.

Στις 2 Ιανουαρίου, ο οργανισμός άρχισε να δέχεται υποβολές για τη συμμετοχή στο διαγωνισμό. Θα λαμβάνει ιδέες μέχρι τις 12 Ιανουαρίου, 08:00 μ.μ. EST.

Οι υποβολές πρέπει να περιλαμβάνουν μια επισκόπηση της πρότασης σε μία σελίδα και μια λεπτομερή περιγραφή έως και 10 σελίδες. Οι συμμετέχοντες μπορούν επίσης να συμπεριλάβουν ένα βίντεο για να δείξουν πώς λειτουργεί η ιδέα τους.

Δείτε επίσης: Κυβερνοασφάλεια: Εξέλιξη των Ρόλων με Νέες Δεξιότητες και AI

Όλες οι υποβολές θα κριθούν με βάση την πρακτικότητά τους, τον αντίκτυπό τους στην εταιρική υπευθυνότητα, την επιβάρυνση του καταναλωτή και την ανθεκτικότητα στις γρήγορες τεχνολογικές εξελίξεις.

Εάν δεν προκύψουν χρήσιμες και αποτελεσματικές ιδέες, σημαίνει ότι οι υπεύθυνοι χάραξης πολιτικής θα πρέπει να εφαρμόσουν άμεσα πιο αυστηρούς κανονισμούς σχετικά με τη χρήση της τεχνολογίας AI για την κλωνοποίηση φωνής.

Πηγή: www.bleepingcomputer.com

Εγγραφή στο Newsletter

* indicates required

FOLLOW US

LIVE NEWS