ΑρχικήsecurityΚακόβουλα μοντέλα AI εμφανίστηκαν στην πλατφόρμα Hugging Face

Κακόβουλα μοντέλα AI εμφανίστηκαν στην πλατφόρμα Hugging Face

Τουλάχιστον 100 περιπτώσεις κακόβουλων μοντέλων AI ML βρέθηκαν στην πλατφόρμα Hugging Face, μερικά από τα οποία μπορούν να εκτελέσουν κώδικα στο μηχάνημα του θύματος, παρέχοντας στους επιτιθέμενους ένα μόνιμο backdoor.

Δείτε επίσης: OpenAI: Πότε θα κυκλοφορήσει το AI εργαλείο ανίχνευσης εικόνων;
Hugging Face Κακόβουλα AI

Η Hugging Face είναι μια τεχνολογική εταιρεία που ασχολείται με την τεχνητή νοημοσύνη (AI), την επεξεργασία φυσικής γλώσσας (NLP) και τη μηχανική εκμάθηση (ML), παρέχοντας μια πλατφόρμα όπου οι κοινότητες μπορούν να συνεργαστούν και να μοιραστούν μοντέλα, σύνολα δεδομένων και πλήρεις εφαρμογές.

Η ομάδα ασφαλείας της JFrog ανέφερε ότι περίπου εκατό μοντέλα που φιλοξενούνται στην πλατφόρμα περιέχουν κακόβουλη λειτουργικότητα, δημιουργώντας σημαντικό κίνδυνο για παραβιάσεις δεδομένων και κατασκοπευτικές επιθέσεις.

Αυτό συμβαίνει παρά τα μέτρα ασφαλείας της Hugging Face, τα οποία περιλαμβάνουν σάρωση για malware, pickle, και κρυφές λειτουργίες, καθώς και εξέταση της λειτουργικότητας των μοντέλων για την ανίχνευση συμπεριφορών όπως η μη ασφαλής ανασειριοποίηση.

Κακόβουλα μοντέλα AI ML στη Hugging Face

Η JFrog ανέπτυξε και υλοποίησε ένα προηγμένο σύστημα σάρωσης για να εξετάσει μοντέλα PyTorch και Tensorflow Keras που φιλοξενούνται στο Hugging Face, εντοπίζοντας εκατό μοντέλα με κάποια μορφή κακόβουλης λειτουργικότητας.

Είναι κρίσιμο να τονίσουμε ότι, όταν αναφερόμαστε σε “κακόβουλα μοντέλα,” εννοούμε ειδικά αυτά που φιλοξενούν πραγματικά βλαβερά φορτία,” αναφέρεται στην έκθεση της JFrog.

Ένα περιστατικό, είναι ένα μοντέλο PyTorch που μεταφορτώθηκε πρόσφατα από ένα χρήστη με το όνομα “baller423,” το οποίο αφαιρέθηκε από το HuggingFace, και περιείχε ένα φορτίο που του έδινε τη δυνατότητα να δημιουργήσει ένα αντίστροφο κέλυφος σε ένα καθορισμένο κεντρικό υπολογιστή (210.117.212.93).

Το κακόβουλο φορτίο χρησιμοποίησε τη μέθοδο “reduce” του Python’s pickle module για να εκτελέσει αυθαίρετο κώδικα κατά τη φόρτωση ενός αρχείου μοντέλου PyTorch, αποφεύγοντας την ανίχνευση μέσω της ενσωμάτωσης του κακόβουλου κώδικα μέσα στην αξιόπιστη διαδικασία σειριοποίησης.

Δείτε ακόμα: Suno: Νέα πλατφόρμα AI τραγουδιών από τη Microsoft Copilot

Η JFrog ανέκαθεν εντόπιζε το ίδιο φορτίο να συνδέεται με άλλες διευθύνσεις IP σε ξεχωριστές περιπτώσεις, με τα στοιχεία να υποδεικνύουν την πιθανότητα οι χειριστές του να είναι ερευνητές τεχνητής νοημοσύνης παρά χάκερς. Ωστόσο, οι πειραματισμοί τους παρέμεναν επικίνδυνοι και ακατάλληλοι.

Οι αναλυτές χρησιμοποίησαν ένα HoneyPot για να προσελκύσουν και να αναλύσουν τη δραστηριότητα προκειμένου να καθορίσουν τις πραγματικές προθέσεις των χειριστών, αλλά δεν κατάφεραν να καταγράψουν εντολές κατά τη διάρκεια της εγκαθίδρυσης της σύνδεσης.

Η JFrog αναφέρει ότι ορισμένες από τις κακόβουλες μεταφορτώσεις μπορεί να αποτελούν μέρος ερευνών ασφαλείας με σκοπό την παράκαμψη μέτρων ασφαλείας στο Hugging Face και τη συλλογή ανταμοιβών ευρεσιτεχνίας προβλημάτων, αλλά μιας και τα επικίνδυνα μοντέλα γίνονται δημόσια διαθέσιμα, ο κίνδυνος είναι πραγματικός και δεν πρέπει να υποτιμηθεί.

Τα μοντέλα τεχνητής νοημοσύνης και μηχανικής εκμάθησης μπορεί να δημιουργήσουν σημαντικούς κινδύνους για την ασφάλεια. Τα ευρήματα της JFrog υπογραμμίζουν αυτό το πρόβλημα και καλούν για αυξημένη επιτήρηση και προληπτικά μέτρα για την προστασία του οικοσυστήματος από κακόβουλους παράγοντες.

Δείτε επίσης: Η AMD σχεδιάζει να εξαγοράσει την AI software εταιρεία Nod.ai

Ποιες είναι οι κυριότερες μέθοδοι αντιμετώπισης κακόβουλου AI

Ένας από τους πιο σημαντικούς τρόπους αντιμετώπισης του κακόβουλου AI, όπως αυτού στην πλατφόρμα Hugging Face, είναι η εκπαίδευση των αλγορίθμων με ασφαλή και αξιόπιστα δεδομένα. Αυτό μπορεί να βοηθήσει στην αποφυγή της εκμάθησης κακόβουλων συμπεριφορών από το AI. Επιπλέον, η χρήση τεχνικών ανίχνευσης αποκλίσεων μπορεί να είναι ιδιαίτερα χρήσιμη. Αυτές οι τεχνικές αναζητούν ασυνήθιστες συμπεριφορές ή δραστηριότητες που μπορεί να υποδηλώνουν κακόβουλη συμπεριφορά. Η διαφάνεια και η ευθύνη είναι επίσης σημαντικές. Τέλος, η εφαρμογή ενός πλαισίου ελέγχου και επιθεώρησης μπορεί να βοηθήσει στην ανακάλυψη και την αντιμετώπιση του κακόβουλου AI. Αυτό μπορεί να περιλαμβάνει την παρακολούθηση της συμπεριφοράς της AI, την εξέταση των αποφάσεων που λαμβάνει και την επαλήθευση των δεδομένων που χρησιμοποιεί.

Πηγή: bleepingcomputer

Absenta Mia
Absenta Miahttps://secnews.gr
Being your self, in a world that constantly tries to change you, is your greater achievement

Εγγραφή στο Newsletter

* indicates required

FOLLOW US

LIVE NEWS