ΑρχικήsecurityΠόσο ασφαλής είναι τελικά η νέα μέθοδος της Apple για τα κακοποιημένα...

Πόσο ασφαλής είναι τελικά η νέα μέθοδος της Apple για τα κακοποιημένα παιδιά

Η Apple ανακοίνωσε ότι με την κυκλοφορία του iOS 15 και του iPadOS 15, θα ξεκινήσει τη σάρωση των φωτογραφιών iCloud στις ΗΠΑ, για να εντοπίζει υλικό σεξουαλικής κακοποίησης παιδιών (CSAM), ενώ σκοπεύει να αναφέρει τα ευρήματα στο Εθνικό Κέντρο για αγνοούμενα και κακοποιημένα παιδιά.

Δείτε επίσης: Η Google δημιουργεί iOS app για αντιγραφή δεδομένων σε Android

Apple

Ωστόσο, οι ερευνητές ασφαλείας έχουν ήδη αρχίσει να εκφράζουν ανησυχίες για το πώς το νέο πρωτόκολλο σάρωσης εικόνας της Apple θα μπορούσε να χρησιμοποιηθεί στο μέλλον, όπως αναφέρουν οι Financial Times.

Η Apple χρησιμοποιεί ένα σύστημα “NeuralHash“, για να συγκρίνει γνωστές εικόνες CSAM με φωτογραφίες στο iPhone ενός χρήστη, προτού μεταφορτωθούν στο iCloud. Εάν υπάρχει αντιστοιχία, η φωτογραφία μεταφορτώνεται με κρυπτογραφημένο κουπόνι ασφαλείας και σε ένα συγκεκριμένο όριο, ενεργοποιείται μια ανασκόπηση για να ελέγξει εάν το άτομο έχει CSAM στις συσκευές του.

Αυτή τη στιγμή, η Apple χρησιμοποιεί την τεχνολογία σάρωσης εικόνας και αντιστοίχισης για να αναζητήσει αποδείξεις κακοποίησης παιδιών, αλλά οι ερευνητές ανησυχούν ότι στο μέλλον, θα μπορούσε να προσαρμοστεί για σάρωση άλλων ειδών εικόνων που είναι πιο ανησυχητικά, όπως αντικυβερνητικά σημάδια για διαμαρτυρίες.

Δείτε ακόμα: Apple: Θα ανιχνεύει εικόνες κακοποιημένων παιδιών στα photo libraries χρηστών

Ο ερευνητής κρυπτογραφίας του Johns Hopkins, Matthew Green είπε ότι η σάρωση CSAM είναι μια “πραγματικά κακή ιδέα”, διότι στο μέλλον, θα μπορούσε να επεκταθεί στη σάρωση κρυπτογραφημένων φωτογραφιών και όχι μόνο σε περιεχόμενο που ανεβαίνει στο iCloud. Για τα παιδιά, η Apple εφαρμόζει μια ξεχωριστή λειτουργία σάρωσης που αναζητά σεξουαλικό περιεχόμενο απευθείας στα iMessages, τα οποία είναι κρυπτογραφημένα από άκρο σε άκρο.

Ο Green εξέφρασε επίσης ανησυχίες για τα hashes που σχεδιάζει να χρησιμοποιήσει η Apple επειδή ενδέχεται να υπάρξουν “συγκρούσεις”, όταν κάποιος στέλνει ένα ακίνδυνο αρχείο που μοιράζεται ένα hash με το CSAM και μπορεί να οδηγήσει σε ψευδή επισήμανση του αρχείου αυτού.

κακοποιημένα παιδιά

Η Apple από την πλευρά της λέει ότι η τεχνολογία σάρωσης έχει “εξαιρετικά υψηλό επίπεδο ακρίβειας” για να βεβαιωθεί ότι οι λογαριασμοί δεν έχουν επισημανθεί εσφαλμένα και ότι οι αναφορές ελέγχονται με μη αυτόματο τρόπο πριν απενεργοποιηθεί ο λογαριασμός iCloud ενός ατόμου και αποσταλεί μια αναφορά στο NCMEC.

Ο Green πιστεύει ότι η εφαρμογή της Apple θα ωθήσει άλλες εταιρείες τεχνολογίας να υιοθετήσουν παρόμοιες τεχνικές. Συγκρίνει μάλιστα την τεχνολογία με “εργαλεία που έχουν χρησιμοποιήσει καταπιεστικά καθεστώτα”.

Δείτε επίσης: Apple Magic Keyboard με Touch ID ξεκινά από $ 149

Ο ερευνητής ασφάλειας Alec Muffett, ο οποίος παλαιότερα εργαζόταν στο Facebook, δήλωσε ότι η απόφαση της Apple να εφαρμόσει αυτού του είδους τη σάρωση εικόνας ήταν ένα «τεράστιο και οπισθοδρομικό βήμα για την ιδιωτικότητα του ατόμου».

Ο Ross Anderson, καθηγητής μηχανικής ασφάλειας στο Πανεπιστήμιο του Κέιμπριτζ είπε ότι το χαρακτήρισε «απολύτως τρομακτική ιδέα» που θα μπορούσε να οδηγήσει σε «κατανεμημένη μαζική παρακολούθηση» συσκευών. Όπως πολλοί έχουν επισημάνει στο Twitter, πολλές τεχνολογικές εταιρείες κάνουν ήδη σάρωση εικόνας για CSAM. Η Google, το Twitter, η Microsoft, το Facebook και άλλοι χρησιμοποιούν μεθόδους κατακερματισμού εικόνων για να αναζητήσουν και να αναφέρουν εικόνες κακοποίησης παιδιών.

Absenta Mia
Absenta Miahttps://www.secnews.gr
Being your self, in a world that constantly tries to change you, is your greater achievement

Εγγραφή στο Newsletter

* indicates required

FOLLOW US

LIVE NEWS