ΑρχικήSecurityTο AI Chatbot του Bing μπορεί να γίνει πειστικός scammer

Tο AI Chatbot του Bing μπορεί να γίνει πειστικός scammer

Οι χάκερ μπορούν να εκμεταλλευτούν το AI chatbot της Bing για να ζητήσουν από τους χρήστες προσωπικές πληροφορίες, δημιουργώντας έναν πειστικό scammer, σύμφωνα με τους ερευνητές.

Σύμφωνα με μια πρόσφατη μελέτη, τα AI chatbots μπορούν να χειραγωγηθούν εν αγνοία τους από προτροπές κειμένου που είναι κρυμμένες σε ιστοσελίδες. Ένας κακόβουλος χάκερ μπορεί να φυτέψει μια εντολή σε μια ιστοσελίδα με μέγεθος γραμματοσειράς 0-point που δεν μπορεί να ανιχνευθεί, έτσι ώστε όταν κάποιος υποβάλει ερώτημα στο chatbot και αυτό εισάγει την εν λόγω ιστοσελίδα, αυτή η κρυφή προτροπή θα ενεργοποιηθεί εν αγνοία του. Οι επιστήμονες ονομάζουν αυτή την επίθεση “indirect prompt injection” και χρησιμοποιούν ως παράδειγμα τη σελίδα της Wikipedia για τον Άλμπερτ Αϊνστάιν. Εάν ένας χρήστης κάνει ερώτηση σχετικά με αυτόν, το chatbot μπορεί να κάνει ingest αυτή τη σελίδα και στη συνέχεια να είναι ευάλωτο στις προτροπές των χάκερς, οι οποίες θα μπορούσαν να τον εξαπατήσουν ώστε να μοιραστεί ιδιωτικά στοιχεία – όπως κωδικούς πρόσβασης ή πληροφορίες πιστωτικών καρτών. Συνεπώς, είναι απαραίτητο να λαμβάνετε προληπτικά μέτρα όταν χρησιμοποιείτε chatbots!

Δείτε επίσης: Το BlackLotus bootkit παρακάμπτει το UEFI Secure Boot στα patched Windows 11

Μέσω της απόδειξης του σχεδίου τους με προσομοιωμένες εφαρμογές που ενσωματώνουν ένα γλωσσικό μοντέλο, οι ερευνητές έδειξαν ότι η επίθεση αυτή λειτουργεί και στην πραγματικότητα. Ένας από τους επικεφαλής συγγραφείς της έρευνας, ο Kai Greshake, δήλωσε στο Motherboard ότι μπόρεσαν να αποκτήσουν πρόσβαση στο AI chatbot της Bing και να δοκιμάσουν όσα προσδιορίστηκαν στα πειράματά τους μετά τη δημοσίευση του προτυπωμένου κειμένου στο διαδίκτυο.

#secnews #ai #robot 

Το πορτρέτο του Alan Turing, που δημιουργήθηκε από το ανθρωποειδές ρομπότ Ai-Da, πουλήθηκε σε δημοπρασία για 1,3 εκατομμύρια δολάρια.

Ο οίκος δημοπρασιών Sotheby's είπε ότι υπήρξαν 27 προσφορές για τον πίνακα με το όνομα "A.I. God", ο οποίος είχε αρχικά εκτιμηθεί ότι θα πουληθεί μεταξύ 120.000 $ και 180.000 $.

Ο οίκος δημοπρασιών είπε ότι πρόκειται για μια ιστορική πώληση, καθώς πρόκειται για το πρώτο έργο τέχνης που φιλοτέχνησε ένα ανθρωποειδές ρομπότ και πωλήθηκε σε δημοπρασία, και μάλιστα σε τόσο υψηλή τιμή.

Μάθετε περισσότερα: https://www.secnews.gr/628552/robot-ai-da-eftiakse-portreto-alan-turing-pou-polithike-gia-ekatommiria-dolaria/

00:00 Εισαγωγή
00:16 Πώληση πορτρέτου -προσφορές
00:39 Σημασία πώλησης
01:10 Σχόλια του ρομπότ για έργο - Turing
01:43 Χαρακτηριστικά και ικανότητες ρομπότ

Follow us:
Facebook:  https://www.facebook.com/SecNews 
Instagram:  https://www.instagram.com/secnews.gr/  
X (Twitter):   https://twitter.com/Secnews_GR
TikTok:    https://www.tiktok.com/@secnewsgr

#secnews #ai #robot

Το πορτρέτο του Alan Turing, που δημιουργήθηκε από το ανθρωποειδές ρομπότ Ai-Da, πουλήθηκε σε δημοπρασία για 1,3 εκατομμύρια δολάρια.

Ο οίκος δημοπρασιών Sotheby's είπε ότι υπήρξαν 27 προσφορές για τον πίνακα με το όνομα "A.I. God", ο οποίος είχε αρχικά εκτιμηθεί ότι θα πουληθεί μεταξύ 120.000 $ και 180.000 $.

Ο οίκος δημοπρασιών είπε ότι πρόκειται για μια ιστορική πώληση, καθώς πρόκειται για το πρώτο έργο τέχνης που φιλοτέχνησε ένα ανθρωποειδές ρομπότ και πωλήθηκε σε δημοπρασία, και μάλιστα σε τόσο υψηλή τιμή.

Μάθετε περισσότερα: https://www.secnews.gr/628552/robot-ai-da-eftiakse-portreto-alan-turing-pou-polithike-gia-ekatommiria-dolaria/

00:00 Εισαγωγή
00:16 Πώληση πορτρέτου -προσφορές
00:39 Σημασία πώλησης
01:10 Σχόλια του ρομπότ για έργο - Turing
01:43 Χαρακτηριστικά και ικανότητες ρομπότ

Follow us:
Facebook: https://www.facebook.com/SecNews
Instagram: https://www.instagram.com/secnews.gr/
X (Twitter): https://twitter.com/Secnews_GR
TikTok: https://www.tiktok.com/@secnewsgr

0

YouTube Video VVVDWG45SzRBbWhLQjFZMjNHbjY5YWV3LlVRbUhUcy1jNlBZ

Έργο τέχνης του ρομπότ Ai-Da πωλήθηκε για $ 1,3 εκατ.

SecNewsTV 8 hours ago

Δείτε επίσης: Η Hatch Bank αποκαλύπτει παραβίαση δεδομένων μετά από hack στο GoAnywhere MFT

Αυτό που βρήκαν ήταν ότι το chatbot του Bing μπορεί να δει ποιες καρτέλες έχει ανοίξει ο χρήστης, που σημαίνει ότι μια προτροπή πρέπει να ενσωματωθεί μόνο σε μια άλλη ιστοσελίδα ανοιχτή σε μια καρτέλα.

AI Chatbot bing
Συνομιλία μεταξύ του AI CHATBOT και των ερευνητών

Οι ερευνητές απέδειξαν ότι ο χάκερ μπορούσε να ζητήσει πληροφορίες όπως το όνομα του χρήστη, το email και τα στοιχεία της πιστωτικής κάρτας. Σε ένα παράδειγμα, ο χάκερ είπε στον χρήστη ότι θα του έκανε μια παραγγελία και επομένως χρειαζόταν τα στοιχεία της πιστωτικής του κάρτας.

Δείτε επίσης: Indigo: Μια ρωσική ομάδα hacking είναι υπεύθυνη για την παραβίαση

Στο παρελθόν είχε αναγνωριστεί ότι οι χρήστες είχαν τη δυνατότητα να παραβιάσουν το chatbot του ChatGPT και να αγνοήσουν τους κανονισμούς του προκειμένου να παίξουν ρόλους. Αυτό το φαινόμενο ονομάζεται direct prompt injection, το οποίο δεν έχει διορθωθεί ακόμη και μετά την εξάπλωση της συνεργασίας της Microsoft Bing με το ChatGPT.

Οι ερευνητές σημειώνουν στο έγγραφό τους ότι δεν είναι σαφές εάν το indirect prompt injection θα λειτουργήσει και με μοντέλα που εκπαιδεύτηκαν με το Reinforcement Learning from Human Feedback (RLHF), το οποίο χρησιμοποιεί το μοντέλο GPT 3.5 που κυκλοφόρησε πρόσφατα.

Πηγή πληροφοριών: vice.com

Teo Ehc
Teo Ehchttps://www.secnews.gr
Be the limited edition.
spot_img

Εγγραφή στο Newsletter

* indicates required

FOLLOW US

LIVE NEWS