ΑρχικήSecurityΚακόβουλα μοντέλα ML στην πλατφόρμα Hugging Face

Κακόβουλα μοντέλα ML στην πλατφόρμα Hugging Face

Σε μια ανησυχητική εξέλιξη για την κοινότητα της μηχανικής μάθησης, οι ερευνητές της ReversingLabs ανακάλυψαν την παρουσία κακόβουλων μοντέλων μηχανικής μάθησης (ML) στη δημοφιλή πλατφόρμα Hugging Face.

Δείτε επίσης: Κακόβουλα σενάρια PowerShell: Τι είναι και πως θα προστατευτείτε

Advertisement
Hugging Face

Αυτά τα μοντέλα αξιοποιούν τις ευπάθειες στη διαδικασία σειριοποίησης αρχείων Pickle, μια δημοφιλή μέθοδο που χρησιμοποιείται ευρέως για την αποθήκευση και την ανταλλαγή δεδομένων μηχανικής εκμάθησης.

Η ανακάλυψη αναδεικνύει τους αυξανόμενους κινδύνους ασφαλείας που συνοδεύουν τις συνεργατικές πλατφόρμες τεχνητής νοημοσύνης, υπογραμμίζοντας παράλληλα την επιτακτική ανάγκη για αυξημένη εγρήγορση από την πλευρά των προγραμματιστών.

Το Pickle αποτελεί μια βιβλιοθήκη της Python που επιτρέπει τη σειριοποίηση και την αποσειροποίηση αντικειμένων, διευκολύνοντας την αποθήκευση και την ανάκτηση δεδομένων.

Δείτε ακόμα: Προστατευτείτε από τις κυβερνοαπειλές και τη νέα χρονιά

Παρότι προσφέρει ευκολία, ενέχει σοβαρούς κινδύνους ασφάλειας, καθώς διαθέτει τη δυνατότητα εκτέλεσης αυθαίρετου κώδικα Python κατά τη διαδικασία της αποσειροποίησης.

Κακόβουλα μοντέλα ML στην πλατφόρμα Hugging Face

Ερευνητές στο Reversing Labs παρατήρησαν ότι αυτή η ευπάθεια μπορεί να εκμεταλλευτεί από εισβολείς για να ενσωματώσουν κακόβουλα ωφέλιμα φορτία σε φαινομενικά αβλαβή μοντέλα ML.

Οι ερευνητές της ReversingLabs εντόπισαν δύο μοντέλα στο Hugging Face που περιείχαν κακόβουλο κώδικα, τον οποίο ονόμασαν “nullifAl“.

Αυτά τα μοντέλα αποθηκεύτηκαν σε μορφή PyTorch, ουσιαστικά συμπιεσμένα αρχεία Pickle. Το κακόβουλο ωφέλιμο φορτίο εισήχθη στην αρχή της ροής Pickle, επιτρέποντάς του να εκτελεστεί πριν τεθεί σε κίνδυνο η ακεραιότητα του αρχείου, αποφεύγοντας έτσι τον εντοπισμό από τα εργαλεία ασφαλείας του Hugging Face.

Δείτε επίσης: Η ενημέρωση του Google Messages προσφέρει επιπλέον προστασία από spam και ευαίσθητο περιεχόμενο

Τα κακόβουλα μοντέλα μηχανικής μάθησης (ML), όπως αυτό που ανακαλύφθηκε στην Hugging Face, αποτελούν σημαντική απειλή στο εξελισσόμενο τοπίο της τεχνητής νοημοσύνης. Αυτά τα μοντέλα σχεδιάζονται ή χειραγωγούνται σκόπιμα για να παράγουν επιβλαβή αποτελέσματα, όπως η δημιουργία ψευδών προβλέψεων, η έκθεση ευαίσθητων πληροφοριών ή η υπονόμευση της εμπιστοσύνης σε αυτοματοποιημένα συστήματα. Οι φορείς επίθεσης μπορεί να περιλαμβάνουν δηλητηρίαση δεδομένων, όπου τα δεδομένα εκπαίδευσης είναι κατεστραμμένα για να μεροληπτούν το μοντέλο ή αντίθετες εισόδους, οι οποίες εκμεταλλεύονται τα τρωτά σημεία του μοντέλου για να προκαλέσουν εσφαλμένες απαντήσεις. Η άνοδος τέτοιων απειλών υπογραμμίζει την ανάγκη για ισχυρά μέτρα ασφαλείας στην τεχνητή νοημοσύνη, συμπεριλαμβανομένων ολοκληρωμένων δοκιμών, ασφαλών πρακτικών δεδομένων και συνεχούς παρακολούθησης για την προστασία των συστημάτων από την εκμετάλλευση.

Πηγή: cybersecuritynews

Absenta Mia
Absenta Miahttps://www.secnews.gr
Being your self, in a world that constantly tries to change you, is your greater achievement
spot_img

Εγγραφή στο Newsletter

* indicates required

FOLLOW US

LIVE NEWS