Η Apple δέχτηκε μήνυση για την απόφασή της να εγκαταλείψει το σύστημα που θα σάρωνε φωτογραφίες iCloud για τον εντοπισμό υλικού σεξουαλικής κακοποίησης παιδιών (CSAM).
Σύμφωνα με τους New York Times, η μήνυση υποστηρίζει ότι οι εταιρείες πρέπει να κάνουν περισσότερα για να αποτρέψουν τη διάδοση αυτού του υλικού. Διαφορετικά, τα θύματα βρίσκονται ξανά σε κίνδυνο και αναγκάζονται να ξαναζήσουν το τραύμα τους. Η μήνυση αναφέρει ότι η Apple είχε διαφημίσει «ένα βελτιωμένο σχέδιο που αποσκοπούσε στην προστασία των παιδιών» αλλά δεν «εφαρμόζει αυτό το σχέδιο και δεν λαμβάνει μέτρα για τον εντοπισμό και τον περιορισμό» του υλικού CSAM.
Δείτε επίσης: Το Apple Vision Pro μπορεί να φέρει υποστήριξη για PlayStation VR controllers
Η Apple ανακοίνωσε για πρώτη φορά το σύστημα σάρωσης το 2021, εξηγώντας ότι θα χρησιμοποιούσε ψηφιακές υπογραφές από το National Center for Missing and Exploited Children και άλλες ομάδες για τον εντοπισμό γνωστού περιεχομένου CSAM σε βιβλιοθήκες iCloud των χρηστών. Ωστόσο, η εταιρεία φάνηκε να εγκαταλείπει αυτά τα σχέδια, αφού υπήρχαν αντιδράσεις από υποστηρικτές της ασφάλειας και της ιδιωτικής ζωής. Κάποιοι υποστήριζαν ότι αυτό θα μπορούσε να ανοίξει το δρόμο για αυξημένη παρακολούθηση ή κατάχρηση από αυταρχικές κυβερνήσεις.
CES 2025: Τα πιο συναρπαστικά ρομπότ!
Η Samsung διορθώνει πολλαπλά ελαττώματα ασφαλείας
Most Innovative Robots of CES 2025
Η νέα μήνυση για τη μη εφαρμογή του συστήματος φέρεται να προέρχεται από μια 27χρονη, που μηνύει την Apple με ψευδώνυμο. Είπε ότι ένας συγγενής της την κακοποίησε όταν ήταν βρέφος και μοιράστηκε φωτογραφίες της στο Διαδίκτυο. Η γυναίκα λέει ότι εξακολουθεί να λαμβάνει ειδοποιήσεις από τις αρχές επιβολής του νόμου, σχεδόν κάθε μέρα, σχετικά με κάποιον που κατηγορείται για κατοχή αυτού του υλικού.
Δείτε επίσης: Η Apple κατηγορείται για παράνομη παρακολούθηση των εργαζομένων
Ο δικηγόρος James Marsh, ο οποίος εμπλέκεται στη μήνυση, είπε ότι υπάρχει μια πιθανή ομάδα 2.680 θυμάτων που θα μπορούσαν να δικαιούνται αποζημίωση σε αυτή την υπόθεση.
Η Apple φέρεται να είπε ότι «παλεύει για την καταπολέμηση αυτών των εγκλημάτων χωρίς να θέτει σε κίνδυνο την ασφάλεια και το απόρρητο όλων των χρηστών».
Ωστόσο, τον Αύγουστο, ένα 9χρονο κορίτσι και ο κηδεμόνας του μήνυσαν επίσης την Apple, κατηγορώντας την εταιρεία ότι απέτυχε να αντιμετωπίσει το υλικό CSAM στο iCloud.
Η διάδοση υλικού σεξουαλικής κακοποίησης παιδιών είναι ένα σοβαρό και ευαίσθητο θέμα. Πολλές χώρες και οργανισμοί εργάζονται για την καταπολέμηση της εξάπλωσής του. Οργανισμοί προστασίας παιδιών λαμβάνουν εκατομμύρια αναφορές για διανομή τέτοιου υλικού κάθε χρόνο. Με αυτά τα ανησυχητικά στατιστικά στοιχεία, είναι σαφές ότι πρέπει να γίνουν περισσότερα για την αντιμετώπιση του προβλήματος.
Δείτε επίσης: Πώς να δημιουργήσετε ένα Apple Account για το παιδί σας;
Η τεχνολογία έχει αναμφίβολα διαδραματίσει σημαντικό ρόλο στη διευκόλυνση της διάδοσης υλικού σεξουαλικής κακοποίησης, αλλά έχει επίσης τη δυνατότητα να βοηθήσει στον εντοπισμό και την πρόληψή της. Η χρήση της τεχνητής νοημοσύνης και άλλων προηγμένων τεχνολογιών μπορεί να βοηθήσει στον εντοπισμό και την αφαίρεση παράνομου περιεχομένου από πλατφόρμες με πολύ ταχύτερο ρυθμό από τον χειροκίνητο έλεγχο. Ωστόσο, η εφαρμογή αυτών των εργαλείων πρέπει να γίνει προσεκτικά, με αυστηρές διασφαλίσεις απορρήτου.
Πηγή: techcrunch.com