ΑρχικήinetNightshade "Data Poisoning Tool": Προστασία εικόνων από το AI

Nightshade “Data Poisoning Tool”: Προστασία εικόνων από το AI

Το Nightshade “Data Poisoning Tool” είναι εργαλείο, που δημιουργήθηκε από μια ομάδα στο Πανεπιστήμιο του Σικάγο. Μπορεί να προσθέσει μη ανιχνεύσιμα pixel σε εικόνες για να βοηθήσει τους δημιουργούς να προστατεύσουν την εργασία τους από AI γεννήτριες εικόνων, δηλητηριάζοντας (καταστρέφοντας) αποτελεσματικά τα δεδομένα εκπαίδευσης του AI.

Nightshade "Data Poisoning Tool"

Δείτε περισσότερα: Generative AI: Θα προκαλέσει “καταστροφικές” κυβερνοεπιθέσεις;

Το εργαλείο αυτό, έχει αναπτυχθεί ως απάντηση σε μεγάλες εταιρείες όπως η OpenAI και η Meta, οι οποίες αντιμετωπίζουν αγωγές για παραβίαση πνευματικών δικαιωμάτων. Οι αγωγές αυτές υποστηρίζουν, ότι τα αντίστοιχα AI εργαλεία έχουν κλέψει προσωπικά έργα τέχνης χωρίς την απαραίτητη συγκατάθεση.

Σύμφωνα με μια αναφορά του MIT Technology Review, ο καθηγητής Ben Zhao και η ομάδα του από το Πανεπιστήμιο του Σικάγο δημιούργησαν το Nightshade. Το Nightshade “Data Poisoning Tool” αποσκοπεί στην υποστήριξη των δημιουργών ενάντια στις εταιρείες Τεχνητής Νοημοσύνης (AI) που χρησιμοποιούν το έργο των καλλιτεχνών για να εκπαιδεύσουν τα μοντέλα AI χωρίς την άδειά τους και χωρίς να τους αποζημιώσουν. Το εργαλείο βρίσκεται υπό αξιολόγηση από συναδέλφους, ενώ η ομάδα το έχει ήδη δοκιμάσει σε ένα πρόσφατο μοντέλο Stable Diffusion και ένα εργαλείο Τεχνητής Νοημοσύνης που οι ερευνητές δημιούργησαν από την αρχή, με πολλά ελπιδοφόρα αποτελέσματα.

Η ομάδα εκφράζει την ελπίδα ότι το εργαλείο, το οποίο επίσης αξιοποιεί το Glaze, ένα άλλο εργαλείο που δημιουργήθηκε από την ίδια ομάδα, θα μπορούσε να χρησιμοποιηθεί για την ασφάλεια και προστασία των εικόνων/περιεχομένου που κοινοποιούνται στο διαδίκτυο, προκειμένου να αποτραπούν πιθανές κακόβουλες χρήσεις και μελλοντικές παραβιάσεις από μοντέλα τεχνητής νοημοσύνης, όπως το DALL-E, Midjourney και Stable Diffusion.

Το «δηλητήριο» ουσιαστικά αλλάζει τον τρόπο με τον οποίο τα εργαλεία μηχανικής μάθησης ερμηνεύουν τα δεδομένα από διαδικτυακές πηγές, έτσι ώστε να βλέπει και να αναπαράγει κάτι εντελώς διαφορετικό. Τα αλλαγμένα εικονοστοιχεία είναι αόρατα στο ανθρώπινο μάτι, αλλά μπορούν πλήρως να ελεγχθούν όταν ερευνητικά μοντέλα Τεχνητής Νοημοσύνης τα αναγνωρίζουν.

Χρησιμοποιώντας αυτό το εργαλείο, οι καλλιτέχνες που επιθυμούν να μοιραστούν τη δουλειά τους στο Διαδίκτυο, διατηρώντας παράλληλα την προστασία των εικόνων τους, μπορούν να ανεβάσουν στο Glaze και να επιτρέψουν στο Nightshade να εφαρμόσει την τεχνολογία του AI Poison. Σύμφωνα με τον Zhao, το Nightshade και το Glaze θα είναι δωρεάν για χρήση, με το Nightshade να είναι ανοιχτού κώδικα για πρόσθετες βελτιώσεις. Εάν αρκετοί άνθρωποι ξεκινήσουν να το χρησιμοποιούν για να προστατεύουν το περιεχόμενό τους από μοντέλα AI, αυτό θα παρακινήσει τις μεγαλύτερες εταιρείες να αναγνωρίζουν και να ανταμείβουν τους πρωτότυπους καλλιτέχνες.

«Όσο περισσότεροι το χρησιμοποιούν και φτιάχνουν τις δικές τους εκδοχές του, τόσο πιο ισχυρό γίνεται το εργαλείο», λέει ο Zhao. «Τα σύνολα δεδομένων για μεγάλα μοντέλα τεχνητής νοημοσύνης μπορεί να αποτελούνται από δισεκατομμύρια εικόνες, επομένως όσο περισσότερες δηλητηριασμένες εικόνες μπορούν να εισαχθούν στο μοντέλο, τόσο μεγαλύτερη ζημιά θα προκαλέσει η τεχνητή νοημοσύνη».

Δείτε περισσότερα: ShellTorch: Ευπάθειες επιτρέπουν επιθέσεις εκτέλεσης κώδικα σε AI servers 

«Δείγματα δεδομένων που έχουν δηλητηριαστεί μπορούν να παραπλανήσουν τα μοντέλα και να τα εκπαιδεύσουν λανθασμένα. Παραδείγματος χάριν, μπορεί να τα καταστήσουν να πιστεύουν ότι οι εικόνες με καπέλα είναι στην πραγματικότητα τούρτες και οι εικόνες με τσάντες είναι τοστιέρες. Τα «δηλητηριασμένα» data είναι πολύ δύσκολο να αφαιρεθούν, καθώς απαιτεί από τις εταιρείες τεχνολογίας να βρουν και να διαγράψουν κάθε κατεστραμμένο δείγμα». Το Nightshade δεν θα μολύνει μόνο τη λέξη «σκύλος» που έχει εκπαιδευτεί με τεχνητή νοημοσύνη αλλά και όλες τις παρόμοιες έννοιες όπως το «κουτάβι» , το «χάσκι» , το «λαγωνικό» και το «λύκος».

Nightshade Data Poisoning Tool

Ο Zhao αναγνωρίζει ότι υπάρχει πιθανότητα οι άνθρωποι να καταχραστούν το Nightshade “Data Poisoning Tool” για κακόβουλες ενέργειες, ωστόσο, θα χρειάζονταν χιλιάδες δηλητηριασμένα δείγματα για να προκαλέσουν πραγματική ζημιά.

Πηγή: petapixel.com

SecNews
SecNewshttps://secnews.gr
In a world without fences and walls, who need Gates and Windows

Εγγραφή στο Newsletter

* indicates required

FOLLOW US

LIVE NEWS