ΑρχικήsecurityΤεχνητή νοημοσύνη: Εύκολος στόχος για τους hacker!

Τεχνητή νοημοσύνη: Εύκολος στόχος για τους hacker!

Η τεχνητή νοημοσύνη δεν θα φέρει επανάσταση σε τίποτα, αν οι hacker ασχοληθούν με αυτήν. Αυτή είναι η προειδοποίηση από την Dawn Song, καθηγήτρια στο UC Berkeley, η οποία ειδικεύεται στη μελέτη των κινδύνων ασφάλειας που σχετίζονται με την AI και τη μηχανική εκμάθηση.

hacker

Μιλώντας στο EmTech Digital, μια εκδήλωση που πραγματοποιήθηκε στο San Francisco, η Song προειδοποίησε ότι οι νέες τεχνικές ανίχνευσης και χειρισμού συστημάτων μηχανικής μάθησης- γνωστές ως μεθόδους “adversarial machine learning” – θα μπορούσαν να προκαλέσουν μεγάλα προβλήματα σε όσους αναζητούν αξιοποιήσει τη δύναμη της AI στην επιχείρηση.

Η Song δήλωσε ότι η “adversarial machine learning” θα μπορούσε να χρησιμοποιηθεί για να επιτεθεί σχεδόν σε οποιοδήποτε σύστημα που βασίζεται στην τεχνολογία. “Είναι ένα μεγάλο πρόβλημα το οποίο πρέπει να διορθωθεί”, είπε στο κοινό.

Η μέθοδος “adversarial machine learning” περιλαμβάνει την πειραματική τροφοδοσία εισόδου σε έναν αλγόριθμο για να αποκαλύψει τις πληροφορίες που έχει εκπαιδευτεί ή να στρεβλώσει την είσοδο με τρόπο που να προκαλεί το σύστημα να μην συμπεριφέρεται σωστά. Με την εισαγωγή πολλών εικόνων σε έναν αλγόριθμο ηλεκτρονικής όρασης, για παράδειγμα, είναι δυνατό να αντιστραφεί η λειτουργία του και να εξασφαλιστούν ορισμένα είδη “output”, συμπεριλαμβανομένων και λανθασμένων.

Η Song παρουσίασε αρκετά παραδείγματα απάτης με αυτό τον τρόπο τα οποία διερευνά η ερευνητική της ομάδα.

Ένα έργο, το οποίο διεξήχθη σε συνεργασία με την Google, περιελάμβανε αλγόριθμους ανίχνευσης μηχανών ανίχνευσης, οι οποίοι παρήγαγαν αυτόματες απαντήσεις σε email. Η προσπάθεια έδειξε ότι με τη δημιουργία των σωστών μηνυμάτων, είναι πιθανό να δημιουργηθεί το μοντέλο της μηχανής που θα εντοπίζει και θα αφαιρεί ευαίσθητα δεδομένα, όπως αριθμούς πιστωτικών καρτών. Τα ευρήματα χρησιμοποιήθηκαν από την Google για να αποφευχθεί η εκμετάλλευση του Smart Compose, του εργαλείου που δημιουργεί αυτόματα το κείμενο στο Gmail.

Ένα άλλο έργο αφορούσε την τροποποίηση οδικών πινακίδων με μερικές αόρατες αυτοκόλλητες ετικέτες για να ξεγελάσουν τα συστήματα οράσεως υπολογιστών που χρησιμοποιούνται σε πολλά οχήματα. Στο βίντεο είδαμε ότι πράγματι ένα αυτοκίνητο θα μπορούσε να εξαπατηθεί και να “διαβάσει” ότι το όριο ταχύτητας είναι 45 μίλια ανά ώρα. Αυτό θα μπορούσε να είναι ένα τεράστιο πρόβλημα για ένα αυτοματοποιημένο σύστημα οδήγησης που βασίζεται σε τέτοιες πληροφορίες.

Η μέθοδος “adversarial machine learning” είναι ένας τομέας αυξανόμενου ενδιαφέροντος για τους ερευνητές μηχανικής μάθησης. Τα τελευταία δύο χρόνια, άλλες ερευνητικές ομάδες έχουν δείξει πώς μπορούν να ανιχνευθούν και να αξιοποιηθούν τα ηλεκτρονικά API μηχανικής μάθησης για να εξευρεθούν τρόποι για την εξαπάτηση τους ή για την αποκάλυψη ευαίσθητων πληροφοριών.

Teo Ehc
Teo Ehchttps://www.secnews.gr
Be the limited edition.

Εγγραφή στο Newsletter

* indicates required

FOLLOW US

LIVE NEWS