Apple: Τα security updates σας προστατεύουν από IDN homograph attacks
infosec

Apple: Τα security updates σας προστατεύουν από IDN homograph attacks

Πόσο συχνά αναβαθμίζετε τις Apple συσκευές σας; Σε περίπτωση που αμελείτε τις αναβαθμίσεις, ανατρέξτε τώρα στο κινητό σας και κάντε άμεσα...
Read More
infosec

Instagram: Bάζει τέλος στα third-apps και τους ψεύτικους followers

Στον κόσμο του Instagram, οι δημοφιλείς σε όλους «influencers» δεν κρύβουν πλέον, πως αγοράζουν τους ακόλουθους, τα likes και τα...
Read More
infosec

Symantec Security Day 2018: Ελάτε να συζητήσουμε σύγχρονα θέματα της κυβερνοασφάλειας!

Σας προσκαλούμε στο Symantec Security Day 2018 όπου θα αναπτυχθούν τα θέματα της κυβερνοασφάλειας, μέσα από την πρακτική προσέγγιση αλλά και αντιμετώπιση των σημερινών κυβερνοαπειλών. Στην ημερίδα αυτή θα εστιάσουμε στις τάσεις της αγοράς και τον ρόλο της κυβερνοασφάλειας στον ψηφιακό...
Read More
infosec

Play Store: Κακόβουλες εφαρμογές με περισσότερες από 500.000 εγκαταστάσεις

Πολλές νέες εφαρμογές χωρίς κάποια λειτουργικότητα έχουν τρυπώσει στο Google Play Store τον τελευταίο καιρό, και έχουν πετύχει περισσότερες από...
Read More
infosec

Instagram: Το εργαλείο λήψης δεδομένων διέρρευσε κωδικούς χρηστών

Φαίνεται ότι η αδυναμία του Facebook να διασφαλίσει τα δεδομένα των χρηστών έχει μεταβιβαστεί και στις θυγατρικές του εταιρείες. Το...
Read More
Latest Posts

Νέο Google AI-based API εντοπίζει υλικό σεξουαλικής κακοποίησης παιδιών

σεξουαλικής
Το Διαδίκτυο δυστυχώς κατακλύζεται από υλικό σεξουαλικής κακοποίησης παιδιών και κάθε τεχνολογική εταιρεία δίνει προτεραιότητα στο να εξαλείφεται κάθε τέτοιο περιεχόμενο προτού να γίνει ορατό στους χρήστες.

Σε μια προσπάθεια αυτοματοποίησης αυτής της διαδικασίας, η Google δρομολόγησε ένα API με τεχνολογία AI που θα βοηθήσει στην αναγνώριση υλικού σεξουαλικής κακοποίησης παιδιών (CSAM). Αυτό όχι μόνο θα επιταχύνει τη διαδικασία, αλλά θα αποτρέψει επίσης την έκθεση των χρηστών στο παράνομο και ενοχλητικό περιεχόμενο.

Η προγενέστερη προσέγγιση που υιοθέτησαν οι εταιρείες για την παρακολούθηση τέτοιου περιεχομένου είναι η αντιστοίχιση των ύποπτων εικόνων με το περιεχόμενο που επισημάνθηκε. Το νέο API που βασίζεται σε AI λειτουργεί με τη χρήση νευρωνικών δικτύων (deep neural networks) για τη σάρωση της επεξεργασίας εικόνας. Το API θα δίνει προτεραιότητα στο περιεχόμενο CSAM για ανασκόπηση, οδηγώντας σε πιο γρήγορη διαδικασία αναθεώρησης.

Η Google είπε ότι αυτό το νέο εργαλείο θα επέτρεπε στις εταιρείες να εντοπίσουν και να αναφέρουν 700% περισσότερο περιεχόμενο CSAM σε σύγκριση με το περιεχόμενο που αξιολογήθηκε από ανθρώπινο δυναμικό.

Το API διατίθεται χωρίς χρέωση για εταιρικούς συνεργάτες και μη κυβερνητικές οργανώσεις μέσω του πακέτου Google’s Content Safety.

Αυτό είναι ένα ευπρόσδεκτο βήμα από την Google, δεδομένου του όγκου του περιεχομένου CSAM που είναι διαθέσιμο μέσω του Διαδικτύου. Ας ελπίσουμε ότι το νέο API με τεχνολογία AI θα βοηθήσει στην επιτάχυνση της διαδικασίας και θα προστατεύσει τα παιδιά που έχουν πέσει θύματα σεξουαλικής κακοποίησης.

Έχετε άποψη; Αφήστε το σχόλιό σας.

Ο συντάκτης σας επιτρέπει να αντιγράψετε το κείμενό του, μόνο εφόσον αναφέρετε την πηγή (SecNews.gr), σαν ηλεκτρονική διεύθυνση (Live URL) του άρθρου.
Updated on by

Reader Interactions

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *