ΑρχικήΕπιστήμη & ΤεχνολογίαFacebook AI: Μπέρδεψε βίντεο με πυροβολισμούς σαν paintball games

Facebook AI: Μπέρδεψε βίντεο με πυροβολισμούς σαν paintball games

Ο CEO του Facebook, Mark Zuckerberg, έκανε μια αισιόδοξη δήλωση πριν από τρία χρόνια, όταν αναφέρθηκε στην πρόοδο που έκανε η εταιρεία του στα αυτοματοποιημένα εργαλεία εποπτείας που υποστηρίζονται από τεχνητή νοημοσύνη (AI). «Μέχρι το τέλος του 2019, αναμένουμε να έχουμε εκπαιδεύσει τα συστήματά μας για τον προληπτικό εντοπισμό της συντριπτικής πλειοψηφίας του προβληματικού περιεχομένου», είπε τον Νοέμβριο του 2018.

Facebook AI

Δείτε επίσης: Facebook: Αντιτίθεται στους ισχυρισμούς ότι το AI δεν καταπολεμά την παραπληροφόρηση

Αλλά μόλις τον Μάρτιο, τα εσωτερικά έγγραφα του Facebook αποκάλυψαν ότι η εταιρεία διαπίστωσε ότι τα αυτοματοποιημένα AI εργαλεία εποπτείας της δεν λειτουργούσαν με μεγάλα ποσοστά επιτυχίας, αφαιρώντας δημοσιεύσεις που ήταν υπεύθυνες μόνο για ένα μικρό κλάσμα των ομιλιών μίσους και της βίας και της υποκίνησης στην πλατφόρμα. Οι αναρτήσεις που αφαιρέθηκαν από εργαλεία τεχνητής νοημοσύνης (AI) αντιπροσώπευαν μόνο το 3-5 % των προβολών ρητορικής μίσους και το 0,6 % των απόψεων βίας και υποκίνησης.

Το Facebook παίρνει ένα δείγμα από αναρτήσεις, εφαρμόζει σε αυτές τα εργαλεία τεχνητής νοημοσύνης και στην συνέχεια ζητά από τους moderators να αξιολογήσουν την ακρίβεια του AI. Στη συνέχεια, χρησιμοποιεί αυτό το κλάσμα για να εκτιμήσει πόση ρητορική μίσους ή βία και υποκίνηση χάνεται σε ολόκληρη την πλατφόρμα.

Διαφορετικά στατιστικά

Η εσωτερική άποψη του Facebook για τα εργαλεία μέτρησης της τεχνητής νοημοσύνης (AI) φαίνεται πολύ πιο απαισιόδοξη από ό, τι αναφέρει στο κοινό. Το θέμα είναι ότι αυτό που συζητά εσωτερικά επικοινωνείται με εντελώς διαφορετικό τρόπο στο κοινό. Σε δηλώσεις, το Facebook αποκάλυψε το ποσοστό της ρητορικής μίσους που ανακάλυψε το AI πριν από την αναφορά των χρηστών, το οποίο είναι πολύ υψηλός αριθμός, 98 τοις εκατό. Το πρόβλημα είναι ότι υπάρχουν πολλές περιπτώσεις όπου η ρητορική μίσους δεν αναφέρεται από τους χρήστες.

Δείτε επίσης: Facebook: Θα κάνει 10.000 προσλήψεις στην ΕΕ για το metaverse

Ο εκπρόσωπος της εταιρείας Andy Stone δήλωσε στο WSJ ότι τα στοιχεία σχετικά με τις αναρτήσεις που αφαιρέθηκαν δεν περιλαμβάνουν άλλες ενέργειες που πραγματοποιεί η πλατφόρμα, όπως μείωση της εμβέλειας ύποπτου περιεχομένου. Σε αυτό το πλαίσιο, είπε, το περιεχόμενο που παραβιάζει την πολιτική μειώνεται σε συχνότητα και είναι αυτό με το οποίο η εταιρεία κρίνει τον εαυτό της.

Το Facebook έχει πει ότι έχει βελτιωθεί σχετικά με την εξεύρεση ρητορικής μίσους στην πλατφόρμα του, υποστηρίζοντας ότι έχει αφαιρέσει 15 φορές περισσότερο περιεχόμενο το 2020 από ό, τι το 2017. Ωστόσο, αυτός ο αριθμός αποκρύπτει ορισμένες βασικές λεπτομέρειες αφού αυτή η δήλωση είναι πάρα πολύ γενική.

Δύσκολο να αναφερθεί

Σήμερα, τα εργαλεία τεχνητής νοημοσύνης (AI) του Facebook μπορεί να προσελκύουν περισσότερο περιεχόμενο πριν το αναφέρουν οι χρήστες, επειδή πριν από δύο χρόνια, το Facebook δυσκόλευε σκόπιμα για τους χρήστες στην υποβολή αναφορών. Μια παρενέργεια ήταν ότι τα εργαλεία AI ήταν πλέον σε θέση να πιάσουν περισσότερες δημοσιεύσεις πριν αναφερθούν τελικά από τους χρήστες.

Δείτε επίσης: Facebook: Φωτογραφίες του πρωτότυπου VR hardware του

Σύγχυση τεχνητής νοημοσύνης (AI)

Τα εσωτερικά έγγραφα του Facebook αποκαλύπτουν πόσο μακριά είναι τα εργαλεία μέτρησης της τεχνητής νοημοσύνης από το να προσδιορίσουν ότι ήταν εύκολο να εντοπίσουν οι moderators. Οι κοκορομαχίες, για παράδειγμα, χαρακτηρίστηκαν λανθασμένα από το AI ως αυτοκινητιστικό δυστύχημα. Σε άλλη περίπτωση, βίντεο που μεταδόθηκαν live από δράστες μαζικών πυροβολισμών χαρακτηρίστηκαν από τα εργαλεία τεχνητής νοημοσύνης ως παιχνίδια paintball ή ήχους από πλυντήριο αυτοκινήτων.

Οι εσωτερικές αναφορές δείχνουν ότι οι χρήστες του Facebook θα προτιμούσαν η εταιρεία να υιοθετήσει μια πιο επιθετική προσέγγιση για την επιβολή παραβιάσεων πολιτικής για ρητορική μίσους και βία και υποκίνηση, ακόμη και αν αυτό σημαίνει την κατάργηση μεγαλύτερου αριθμού αθώων δημοσιεύσεων. Σε μια έρευνα, χρήστες από όλο τον κόσμο δήλωσαν ότι οι ανακριβείς αφαιρέσεις περιεχομένου είναι από τις μικρότερες ανησυχίες τους και είπαν ότι η ρητορική μίσους και η βία πρέπει να είναι η ύψιστη προτεραιότητά της εταιρείας. Στις ΗΠΑ, αρκετοί χρήστες θεώρησαν ότι οι ανακριβείς αφαιρέσεις περιεχομένου αποτελούν ένα ζήτημα προς συζήτηση, αλλά η ρητορική μίσους και η βία εξακολουθούσαν να θεωρούνται το κορυφαίο πρόβλημα.

Πηγή πληροφοριών: arstechnica.com

Teo Ehc
Teo Ehchttps://www.secnews.gr
Be the limited edition.

Εγγραφή στο Newsletter

* indicates required

FOLLOW US

LIVE NEWS