ΑρχικήinetΕΕ: Το AI καθιστά τα αυτόνομα οχήματα «εξαιρετικά ευάλωτα» στις κυβερνοεπιθέσεις

ΕΕ: Το AI καθιστά τα αυτόνομα οχήματα «εξαιρετικά ευάλωτα» στις κυβερνοεπιθέσεις

Ο στόχος των αυτόνομων οχημάτων είναι να μπορούν να αποφύγουν τα ανθρώπινα λάθη και να σώσουν ζωές, αλλά μια νέα έκθεση του Οργανισμού για την Κυβερνητική Ασφάλεια της Ευρωπαϊκής Ένωσης (ENISA) διαπίστωσε ότι τα αυτόνομα οχήματα είναι «εξαιρετικά ευάλωτα σε ένα ευρύ φάσμα επιθέσεων» που θα μπορούσαν να είναι επικίνδυνες για τους επιβάτες, τους πεζούς και τους επιβαίνοντες άλλων οχημάτων. Οι επιθέσεις που εξετάζονται στην αναφορά αφορούν επιθέσεις αισθητήρων με ακτίνες φωτός, συστήματα ανίχνευσης αντικειμένων, κακόβουλη δραστηριότητα back-end και επιθέσεις adversarial machine learning που παρουσιάζονται σε δεδομένα εκπαίδευσης ή στον φυσικό κόσμο.

αυτόνομα οχήματα AI
ΕΕ: Το AI καθιστά τα αυτόνομα οχήματα «εξαιρετικά ευάλωτα» στις κυβερνοεπιθέσεις

«Η επίθεση μπορεί να χρησιμοποιηθεί για να κάνει το AI «τυφλό» για τους πεζούς χειραγωγώντας, για παράδειγμα, τη συνιστώσα αναγνώρισης εικόνας, προκειμένου να “ταξινομήσει” εσφαλμένα τους πεζούς. Αυτό θα μπορούσε να οδηγήσει σε καταστροφή, καθώς τα αυτόνομα αυτοκίνητα ενδέχεται να χτυπήσουν τους πεζούς”, αναφέρει η έκθεση. «Η απουσία επαρκών γνώσεων και εμπειρογνωμοσύνης μεταξύ των προγραμματιστών και των σχεδιαστών συστημάτων στο AI cybersecurity είναι ένα σημαντικό εμπόδιο που εμποδίζει την ενσωμάτωση της ασφάλειας στον τομέα της αυτοκινητοβιομηχανίας».

Η γκάμα συστημάτων AI και αισθητήρων που απαιτούνται για την τροφοδοσία αυτόνομων οχημάτων αυξάνει τις επιλογές για επιθέσεις, αναφέρει η έκθεση. Για την αντιμετώπιση των τρωτών σημείων, οι συντάκτες της λένε ότι οι υπεύθυνοι χάραξης πολιτικής και οι επιχειρήσεις θα πρέπει να αναπτύξουν μια κουλτούρα ασφάλειας σε όλη την αλυσίδα εφοδιασμού αυτοκινήτων, συμπεριλαμβανομένων των τρίτων παρόχων. Η έκθεση καλεί τους κατασκευαστές αυτοκινήτων να λάβουν μέτρα για τον μετριασμό των κινδύνων ασφαλείας, προτείνοντας τους τη δημιουργία συστημάτων machine learning ως μέρος της αλυσίδας εφοδιασμού της αυτοκινητοβιομηχανίας.

Η έκθεση επικεντρώνεται στις κυβερνοεπιθέσεις με adversarial machine learning που ενέχει τον κίνδυνο κακόβουλων επιθέσεων που δεν ανιχνεύονται από τον άνθρωπο. Η έκθεση διαπιστώνει επίσης ότι η χρήση μηχανικής μάθησης σε αυτοκίνητα θα απαιτεί συνεχή αναθεώρηση των συστημάτων για να διασφαλιστεί ότι δεν έχουν τροποποιηθεί με κακόβουλο τρόπο.

Τα σενάρια που παρουσιάζονται στην έκθεση περιλαμβάνουν την πιθανότητα επιθέσεων σε σχέδια κίνησης και αλγόριθμους λήψης αποφάσεων και spoofing, όπως το είδος που μπορεί να ξεγελάσει ένα αυτόνομο όχημα για να «αναγνωρίσει» αυτοκίνητα, ανθρώπους ή τοίχους που δεν υπάρχουν.

Τα τελευταία χρόνια, ορισμένες μελέτες έχουν δείξει ότι οι φυσικές διαταραχές μπορούν με λίγη προσπάθεια να ξεγελάσουν τα αυτόνομα συστήματα οχημάτων. Το 2017, οι ερευνητές χρησιμοποίησαν σπρέι βαφής ή αυτοκόλλητα σε μια διαφημιστική πινακίδα για να ξεγελάσουν ένα αυτόνομο όχημα για την εσφαλμένη αναγνώριση της διαφημιστικής πινακίδας ως πινακίδα ορίου ταχύτητας. Το 2019, οι ερευνητές ασφαλείας της Tencent χρησιμοποίησαν αυτοκόλλητα για να κάνουν το Autopilot της Tesla να στρίβει σε λάθος λωρίδα.

Η έκθεση εγκρίθηκε από το Joint Research Centre, επιστημονικό και τεχνολογικό σύμβουλο της Ευρωπαϊκής Επιτροπής. Πριν από λίγες εβδομάδες, ο ENISA κυκλοφόρησε μια ξεχωριστή έκθεση που περιγράφει λεπτομερώς τις προκλήσεις της ασφάλειας στον κυβερνοχώρο που δημιουργήθηκαν από την τεχνητή νοημοσύνη.

Πηγή πληροφοριών: venturebeat.com

Teo Ehc
Teo Ehchttps://www.secnews.gr
Be the limited edition.

Εγγραφή στο Newsletter

* indicates required

FOLLOW US

LIVE NEWS