ΑρχικήsecurityTο AI Chatbot του Bing μπορεί να γίνει πειστικός scammer

Tο AI Chatbot του Bing μπορεί να γίνει πειστικός scammer

Οι χάκερ μπορούν να εκμεταλλευτούν το AI chatbot της Bing για να ζητήσουν από τους χρήστες προσωπικές πληροφορίες, δημιουργώντας έναν πειστικό scammer, σύμφωνα με τους ερευνητές.

Σύμφωνα με μια πρόσφατη μελέτη, τα AI chatbots μπορούν να χειραγωγηθούν εν αγνοία τους από προτροπές κειμένου που είναι κρυμμένες σε ιστοσελίδες. Ένας κακόβουλος χάκερ μπορεί να φυτέψει μια εντολή σε μια ιστοσελίδα με μέγεθος γραμματοσειράς 0-point που δεν μπορεί να ανιχνευθεί, έτσι ώστε όταν κάποιος υποβάλει ερώτημα στο chatbot και αυτό εισάγει την εν λόγω ιστοσελίδα, αυτή η κρυφή προτροπή θα ενεργοποιηθεί εν αγνοία του. Οι επιστήμονες ονομάζουν αυτή την επίθεση “indirect prompt injection” και χρησιμοποιούν ως παράδειγμα τη σελίδα της Wikipedia για τον Άλμπερτ Αϊνστάιν. Εάν ένας χρήστης κάνει ερώτηση σχετικά με αυτόν, το chatbot μπορεί να κάνει ingest αυτή τη σελίδα και στη συνέχεια να είναι ευάλωτο στις προτροπές των χάκερς, οι οποίες θα μπορούσαν να τον εξαπατήσουν ώστε να μοιραστεί ιδιωτικά στοιχεία – όπως κωδικούς πρόσβασης ή πληροφορίες πιστωτικών καρτών. Συνεπώς, είναι απαραίτητο να λαμβάνετε προληπτικά μέτρα όταν χρησιμοποιείτε chatbots!

Δείτε επίσης: Το BlackLotus bootkit παρακάμπτει το UEFI Secure Boot στα patched Windows 11

Μέσω της απόδειξης του σχεδίου τους με προσομοιωμένες εφαρμογές που ενσωματώνουν ένα γλωσσικό μοντέλο, οι ερευνητές έδειξαν ότι η επίθεση αυτή λειτουργεί και στην πραγματικότητα. Ένας από τους επικεφαλής συγγραφείς της έρευνας, ο Kai Greshake, δήλωσε στο Motherboard ότι μπόρεσαν να αποκτήσουν πρόσβαση στο AI chatbot της Bing και να δοκιμάσουν όσα προσδιορίστηκαν στα πειράματά τους μετά τη δημοσίευση του προτυπωμένου κειμένου στο διαδίκτυο.

Δείτε επίσης: Η Hatch Bank αποκαλύπτει παραβίαση δεδομένων μετά από hack στο GoAnywhere MFT

Αυτό που βρήκαν ήταν ότι το chatbot του Bing μπορεί να δει ποιες καρτέλες έχει ανοίξει ο χρήστης, που σημαίνει ότι μια προτροπή πρέπει να ενσωματωθεί μόνο σε μια άλλη ιστοσελίδα ανοιχτή σε μια καρτέλα.

AI Chatbot bing
Συνομιλία μεταξύ του AI CHATBOT και των ερευνητών

Οι ερευνητές απέδειξαν ότι ο χάκερ μπορούσε να ζητήσει πληροφορίες όπως το όνομα του χρήστη, το email και τα στοιχεία της πιστωτικής κάρτας. Σε ένα παράδειγμα, ο χάκερ είπε στον χρήστη ότι θα του έκανε μια παραγγελία και επομένως χρειαζόταν τα στοιχεία της πιστωτικής του κάρτας.

Δείτε επίσης: Indigo: Μια ρωσική ομάδα hacking είναι υπεύθυνη για την παραβίαση

Στο παρελθόν είχε αναγνωριστεί ότι οι χρήστες είχαν τη δυνατότητα να παραβιάσουν το chatbot του ChatGPT και να αγνοήσουν τους κανονισμούς του προκειμένου να παίξουν ρόλους. Αυτό το φαινόμενο ονομάζεται direct prompt injection, το οποίο δεν έχει διορθωθεί ακόμη και μετά την εξάπλωση της συνεργασίας της Microsoft Bing με το ChatGPT.

Οι ερευνητές σημειώνουν στο έγγραφό τους ότι δεν είναι σαφές εάν το indirect prompt injection θα λειτουργήσει και με μοντέλα που εκπαιδεύτηκαν με το Reinforcement Learning from Human Feedback (RLHF), το οποίο χρησιμοποιεί το μοντέλο GPT 3.5 που κυκλοφόρησε πρόσφατα.

Πηγή πληροφοριών: vice.com

Teo Ehc
Teo Ehchttps://www.secnews.gr
Be the limited edition.

Εγγραφή στο Newsletter

* indicates required

FOLLOW US

LIVE NEWS