ΑρχικήinetApple: Ζητούν να σταματήσει τα σχέδια σάρωσης συσκευών για παιδική κακοποίηση

Apple: Ζητούν να σταματήσει τα σχέδια σάρωσης συσκευών για παιδική κακοποίηση

Ένας διεθνής συνασπισμός ομάδων πολιτικών δικαιωμάτων, δημοσίευσε μια ανοιχτή επιστολή την Πέμπτη ζητώντας από την Apple να «εγκαταλείψει τα πρόσφατα ανακοινωθέντα σχέδιά της να δημιουργήσει δυνατότητες επιτήρησης σε iPhone, iPad και άλλα προϊόντα της». Οι ομάδες περιλαμβάνουν την Αμερικανική Ένωση Πολιτικών Ελευθεριών, το ίδρυμα Electronic Frontier, το Access Now, το Privacy International και το Tor Project.

Δείτε επίσης: Apple: Θα ανιχνεύει εικόνες κακοποιημένων παιδιών στα photo libraries χρηστών

Apple

Νωρίτερα αυτόν τον μήνα, η Apple ανακοίνωσε τα σχέδιά της να χρησιμοποιήσει νέα τεχνολογία στο iOS, για τον εντοπισμό πιθανών εικόνων κακοποίησης παιδιών με στόχο τον περιορισμό της διάδοσης υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) στο διαδίκτυο. Η Apple ανακοίνωσε επίσης μια νέα λειτουργία «ασφάλειας επικοινωνίας», η οποία θα χρησιμοποιεί τη μηχανική εκμάθηση στη συσκευή για τον εντοπισμό και το θάμπωμα των σεξουαλικών εικόνων που λαμβάνουν τα παιδιά στην εφαρμογή Messages. Οι γονείς των παιδιών ηλικίας 12 ετών και κάτω μπορούν να ειδοποιηθούν εάν το παιδί δει ή στείλει μια τέτοια εικόνα.

«Αν και αυτές οι δυνατότητες αποσκοπούν στην προστασία των παιδιών και στη μείωση της διάδοσης υλικού σεξουαλικής κακοποίησης παιδιών, ανησυχούμε ότι θα χρησιμοποιηθούν για λογοκρισία, για να απειλήσουν την ιδιωτικότητα και την ασφάλεια των ανθρώπων σε όλο τον κόσμο και θα έχουν καταστροφικές συνέπειες για πολλά παιδιά», έγραψαν οι ομάδες στην επιστολή.

Δείτε ακόμα: Πόσο ασφαλής είναι τελικά η νέα μέθοδος της Apple για τα κακοποιημένα παιδιά

Η νέα σελίδα “Child Safety” της Apple περιγράφει λεπτομερώς τα σχέδια, τα οποία απαιτούν σάρωση στη συσκευή πριν δημιουργηθεί αντίγραφο ασφαλείας μιας εικόνας στο iCloud. Η σάρωση δεν πραγματοποιείται έως ότου δημιουργηθεί αντίγραφο ασφαλείας ενός αρχείου στο iCloud και η Apple λέει ότι λαμβάνει δεδομένα σχετικά με μια αντιστοίχιση μόνο εάν τα κρυπτογραφικά κουπόνια (που μεταφορτώνονται στο iCloud μαζί με την εικόνα) για έναν λογαριασμό αντιστοιχούν σε CSAM. Η Apple και άλλοι πάροχοι email cloud έχουν χρησιμοποιήσει συστήματα κατακερματισμού για σάρωση σχετικά με CSAM που αποστέλλεται μέσω email, αλλά το νέο πρόγραμμα θα εφαρμόζει τις ίδιες σαρώσεις σε εικόνες που είναι αποθηκευμένες στο iCloud, ακόμη και αν ο χρήστης δεν τις κοινοποιεί ή τις στέλνει σε κανέναν άλλο.

παιδική κακοποίηση

Σε απάντηση στις ανησυχίες σχετικά με τον τρόπο με τον οποίο η τεχνολογία μπορεί να χρησιμοποιηθεί για κατάχρηση, η Apple συνέχισε λέγοντας ότι θα περιορίσει τη χρήση της στην ανίχνευση CSAM «και δεν θα δεχθεί κανένα κυβερνητικό αίτημα για επέκταση».

Δείτε επίσης: iCloud και WhatsApp: Πως μπορούν να σας παγιδέψουν για παιδική πορνογραφία;

Μεγάλο μέρος της αντίδρασης κατά των νέων μέτρων έχει επικεντρωθεί στη λειτουργία σάρωσης συσκευών, αλλά οι ομάδες πολιτικών δικαιωμάτων και απορρήτου δήλωσαν ότι το σχέδιο θόλωσης του γυμνού στα iMessages των παιδιών θα μπορούσε ενδεχομένως να θέσει τα παιδιά σε κίνδυνο και να σπάσει την κρυπτογράφηση edge-to-edge.

Μόλις ενσωματωθεί αυτό το χαρακτηριστικό, οι κυβερνήσεις θα μπορούν να υποχρεώσουν την Apple να επεκτείνει την ειδοποίηση και σε άλλους λογαριασμούς και να εντοπίσει εικόνες που είναι μη αποδεκτές για άλλους λόγους εκτός από τη σεξουαλική έκφραση“, αναφέρει η επιστολή.

Absenta Mia
Absenta Miahttps://www.secnews.gr
Being your self, in a world that constantly tries to change you, is your greater achievement

Εγγραφή στο Newsletter

* indicates required

FOLLOW US

LIVE NEWS