ΑρχικήSecurityΟργανισμοί απαγορεύουν τη χρήση Generative AI λόγω ανησυχιών για απόρρητο

Οργανισμοί απαγορεύουν τη χρήση Generative AI λόγω ανησυχιών για απόρρητο

To 27% των οργανισμών (δηλαδή πάνω από το ένα τέταρτο) έχει απαγορεύσει τη χρήση generative AI εργαλείων στο εργατικό τους δυναμικό λόγω ανησυχιών περί απορρήτου και ασφάλειας των δεδομένων. Τα ευρήματα αυτά προέρχονται από την έρευνα και την έκθεση Cisco 2024 Data Privacy Benchmark Study.

Generative AI απαγόρευση

Οι περισσότεροι οργανισμοί έχουν επίσης θεσπίσει ελέγχους σε αυτά τα εργαλεία. Σχεδόν τα δύο τρίτα (63%) έχουν θεσπίσει περιορισμούς σχετικά με τα δεδομένα που μπορούν να εισαχθούν. Επίσης, το 61% έχει θέσει περιορισμούς σε σχέση με το ποια εργαλεία Gen AI μπορούν να χρησιμοποιηθούν από τους υπαλλήλους.

Δείτε επίσης: Taylor Swift: Ακατάλληλες AI-generated φωτογραφίες διαδόθηκαν στα social media

Παρά τους τωρινούς περιορισμούς (οι οποίοι μπορεί να είναι προσωρινοί), πολλοί οργανισμοί εισήγαγαν ευαίσθητα δεδομένα σε generative AI εφαρμογές. Για παράδειγμα, είχαν εισαχθεί πληροφορίες σχετικά με εσωτερικές διαδικασίες (62%), ονόματα ή άλλα στοιχεία εργαζομένων (45%), μη δημόσιες πληροφορίες για την εταιρεία (42%), καθώς και ονόματα ή πληροφορίες πελατών (38%).

Το AI μπορεί να επηρεάσει την ιδιωτικότητα μέσω της δημιουργίας προφίλ χρηστών βασισμένων σε συλλεγόμενα δεδομένα. Αυτά τα προφίλ μπορεί να χρησιμοποιηθούν για την προσαρμογή της διαφήμισης και άλλων υπηρεσιών, αλλά μπορεί επίσης να οδηγήσουν σε παραβιάσεις της ιδιωτικότητας αν δεν χειριστούν σωστά.

Το μεγαλύτερο ποσοστό των οργανισμών θεωρεί ότι το generative AI είναι μια πολύ διαφορετική τεχνολογία που θέτει νέες ιδιαίτερες προκλήσεις, οι οποίες με τη σειρά τους απαιτούν νέες τεχνικές για τη διαχείριση των δεδομένων και του πιθανού κινδύνου για την ασφάλεια.

Οι μεγαλύτερες ανησυχίες αφορούν την παραβίαση νομικών και πνευματικών δικαιωμάτων του οργανισμού (69%). Άλλες ανησυχίες έχουν να κάνουν με την πιθανή δημόσια κοινοποίηση πληροφοριών σε ανταγωνιστές (68%) αλλά και με την πιθανή επιστροφή λανθασμένων αποτελεσμάτων ( 68%).

Μέσα σε αυτά τα ζητήματα, το 91% των επαγγελματιών ασφάλειας αναγνώρισε ότι πρέπει να κάνουν περισσότερα για να καθησυχάσουν τους πελάτες σχετικά με τη χρήση των δεδομένων τους με την τεχνητή νοημοσύνη.

Η έλλειψη διαφάνειας στη λειτουργία του AI μπορεί να δημιουργήσει προβλήματα. Η δυσκολία στην κατανόηση του πώς λειτουργούν τα προηγμένα μοντέλα AI και το πώς λαμβάνουν αποφάσεις, μπορεί να οδηγήσει σε αβεβαιότητα και δυσπιστία από το κοινό.

Δείτε επίσης: NCSC: Η τεχνητή νοημοσύνη (AI) θα αυξήσει τις ransomware επιθέσεις

Το απόρρητο είναι κρίσιμο για την εμπορική επιτυχία

Σχεδόν όλοι (94%) οι επαγγελματίες ασφάλειας και απορρήτου δήλωσαν ότι οι πελάτες τους δεν θα αγόραζαν από τον οργανισμό τους εάν δεν προστατεύονται σωστά τα δεδομένα.

Ευτυχώς, το 97% αισθάνεται ότι έχει ευθύνη να χρησιμοποιεί τα δεδομένα με ηθικό τρόπο και το 95% υποστηρίζει ότι τα επιχειρηματικά οφέλη από την επένδυση στην ιδιωτική ζωή είναι μεγαλύτερα από το κόστος.

Ο Harvey Jang, Αντιπρόεδρος και Διευθυντής Προστασίας Προσωπικών Δεδομένων της Cisco, σημείωσε ότι η συμμόρφωση με τους νόμους περί απορρήτου δεδομένων δείχνει στους καταναλωτές ότι οι οργανισμοί προστατεύουν επαρκώς τα δεδομένα τους.

Δείτε επίσης: Η Generative AI στην Βιομηχανία των Video Games

Αυτά τα στατιστικά στοιχεία είναι τα υψηλότερα που έχουμε δει στην έρευνα απορρήτου της Cisco όλα αυτά τα χρόνια, αποδεικνύοντας για άλλη μια φορά ότι το απόρρητο έχει γίνει άρρηκτα συνδεδεμένο με την εμπιστοσύνη και την πίστη των πελατών. Αυτό ισχύει ακόμη περισσότερο στην εποχή της τεχνητής νοημοσύνης, όπου η επένδυση στην προστασία της ιδιωτικής ζωής βελτιώνει τις θέσεις των οργανισμών για να αξιοποιήσουν την τεχνητή νοημοσύνη ηθικά και υπεύθυνα“, δήλωσε ο Jang.

Πηγή: www.infosecurity-magazine.com

Digital Fortress
Digital Fortresshttps://www.secnews.gr
Pursue Your Dreams & Live!
spot_img

Εγγραφή στο Newsletter

* indicates required

FOLLOW US

LIVE NEWS