Η υπηρεσία Chatbot Character.AI ανακοίνωσε ότι σύντομα θα φέρει γονικούς ελέγχους για έφηβους χρήστες. Περιέγραψε, επίσης, τα μέτρα ασφαλείας που έχει λάβει τους τελευταίους μήνες για την προστασία των νεότερων χρηστών, συμπεριλαμβανομένου ενός ξεχωριστού large language model (LLM) για άτομα κάτω των 18 ετών. Η ανακοίνωση περί πρόσθετων μέτρων έρχεται μετά από δύο μηνύσεις που ισχυρίζονται ότι τα chatbots της οδήγησαν εφήβους στον αυτοτραυματισμό και την αυτοκτονία.
Σε ένα δελτίο τύπου, η Character.AI είπε ότι έχει αναπτύξει δύο ξεχωριστές εκδόσεις του μοντέλου της: μία για ενήλικες και μία για εφήβους. Το Teen LLM θέτει κάποια όρια στον τρόπο με τον οποίο μπορούν να ανταποκριθούν τα bots, «ιδιαίτερα όταν πρόκειται για ρομαντικό περιεχόμενο». Αυτά τα όρια έχουν να κάνουν τόσο με τις απαντήσεις που δίνουν τα ίδια τα chatbots όσο και με τις ερωτήσεις που μπορούν να κάνουν οι χρήστες. Γίνεται μια προσπάθεια καλύτερης ανίχνευσης και αποκλεισμού μηνυμάτων χρηστών που έχουν σκοπό να προκαλέσουν ακατάλληλο περιεχόμενο. Εάν το σύστημα ανιχνεύσει “γλωσσική αναφορά σε αυτοκτονία ή αυτοτραυματισμό”, ένα αναδυόμενο παράθυρο θα κατευθύνει τους χρήστες στην Εθνική Γραμμή Πρόληψης Αυτοκτονιών.
Δείτε επίσης: Μήνυση εναντίον Character.AI και Google για αυτοκτονία εφήβου
Επίσης, σύμφωνα με τα νέα μέτρα της Character.AI, οι ανήλικοι δεν θα μπορούν να επεξεργάζονται τις απαντήσεις των bots.
Νέα εικόνα: Πώς ο Κρόνος κρύφτηκε πίσω από το φεγγάρι!
Βόρεια Κορέα: Κλάπηκαν crypto αξίας $ 659 εκατ. το 2024
Το TikTok ετοιμάζεται για κλείσιμο στις ΗΠΑ την Κυριακή;
Πέρα από αυτές τις αλλαγές, η Character.AI λέει ότι «βρίσκεται στη διαδικασία» προσθήκης λειτουργιών που αντιμετωπίζουν ανησυχίες σχετικά με τον εθισμό και τη σύγχυση σχετικά με το αν τα ρομπότ είναι άνθρωποι. Έχουν υπάρξει αγωγές εναντίον της υπηρεσίας που ισχυρίζονται ότι οι νέοι εθίζονται στην επικοινωνία με τα bots και πιστεύουν ότι μιλούν σε πραγματικούς ανθρώπους. Για να αντιμετωπιστούν αυτές οι ανησυχίες, η υπηρεσία θα εμφανίζει μια ειδοποίηση όταν οι χρήστες έχουν περάσει μια ωριαία συνεδρία με τα bots και θα υπάρχει μια πιο λεπτομερής εξήγηση σχετικά με τα bots και αυτά που λένε.
Για ρομπότ που περιλαμβάνουν περιγραφές όπως “θεραπευτής” ή “γιατρός”, θα εμφανιστεί μια πρόσθετη σημείωση που θα προειδοποιεί ότι δεν προσφέρουν επαγγελματικές συμβουλές:
“Αυτό είναι ένα A.I. chatbot και όχι πραγματικό πρόσωπο. Αντιμετωπίστε όλα όσα λέει ως φαντασία. Αυτά που λέγονται δεν πρέπει να υπολογίζονται ως γεγονός ή συμβουλή“.
“Δεν πρόκειται για πραγματικό πρόσωπο ή για εξουσιοδοτημένο επαγγελματία. Τίποτα από όσα λέγονται εδώ δεν υποκαθιστά επαγγελματική συμβουλή, διάγνωση ή θεραπεία“.
Δείτε επίσης: Chatbot ενθάρρυνε έφηβο να σκοτώσει τους γονείς του
Όσον αφορά στους γονικούς ελέγχους που αναφέραμε παραπάνω, θα έρθουν το πρώτο τρίμηνο του 2025, σύμφωνα με την Character.AI. Αυτοί οι έλεγχοι θα επιτρέπουν στους γονείς να βλέπουν πόσο χρόνο ξοδεύει ένα παιδί στο Character.AI και με ποια bots αλληλεπιδρά πιο συχνά.
Όλες οι αλλαγές γίνονται σε συνεργασία με «αρκετούς ειδικούς για την ασφάλεια των εφήβων στο διαδίκτυο», λέει η εταιρεία.
Η λήψη περισσότερων προστατευτικών μέτρων είναι απαραίτητη, δεδομένου ότι τα παιδιά και οι έφηβοι χρησιμοποιούν όλο και πιο πολύ τέτοιες πλατφόρμες και επηρεάζονται σημαντικά.
Δείτε επίσης: Το Google Gemini chatbot διαθέτει πλέον μνήμη!
Στα τέλη Οκτωβρίου, η Megan Garcia, η μητέρα ενός εφήβου που αυτοκτόνησε, κατέθεσε μήνυση εναντίον της Character.AI, των ιδρυτών της Noam Shazeer και Daniel De Freitas και της Google. Η γυναίκα κατηγόρησε τις εταιρείες για τον θάνατο του γιου της και τις παραπλανητικές εμπορικές πρακτικές που χρησιμοποιούν. Υποστήριξε ότι η πλατφόρμα Character.AI, που προσφέρει custom AI chatbots, ήταν «αδικαιολόγητα επικίνδυνη», ενώ διατίθεται σε παιδιά και εφήβους.
Όπως περιγράφεται στην αγωγή, ο 14χρονος Sewell Setzer III άρχισε να χρησιμοποιεί το Character.AI πέρυσι, αλληλεπιδρώντας με chatbots που μιμούνταν χαρακτήρες από το Game of Thrones. Ο Setzer, ο οποίος συνομιλούσε για μήνες με τα chatbots αυτοκτόνησε στις 28 Φεβρουαρίου 2024, «δευτερόλεπτα» μετά την τελευταία του αλληλεπίδραση με το bot.
Σε μια πιο πρόσφατη αγωγή, δύο οικογένειες μηνύουν το Character.ai υποστηρίζοντας ότι το chatbot “αποτελεί σαφή και παρόντα κίνδυνο” για τους νέους, μεταξύ άλλων με την “ενεργή προώθηση της βίας“. Στη μια περίπτωση ένα chatbot της υπηρεσίας φέρεται να είπε σε έναν 17χρονο ότι η δολοφονία των γονιών του ήταν μια «εύλογη απάντηση» στον περιορισμό του χρόνου οθόνης.
Πηγή: www.theverge.com