ΑρχικήinetΕρευνητές AI επικρίνουν software που "προβλέπει" την εγκληματικότητα!

Ερευνητές AI επικρίνουν software που “προβλέπει” την εγκληματικότητα!

Πάνω από 1.000 ερευνητές, ακαδημαϊκοί και εμπειρογνώμονες που ασχολούνται με την τεχνητή νοημοσύνη AI εκφράζουν την αντίθεσή τους σχετικά με μία έρευνα που πρόκειται να δημοσιευθεί, ισχυριζόμενη ότι χρησιμοποίησε software που “προβλέπει” την εγκληματικότητα. Περισσότεροι από 50 υπάλληλοι που εργάζονται πάνω στην τεχνητή νοημοσύνη AI σε τεχνολογικούς κολοσσούς όπως το Facebook, η Google και η Microsoft έχουν υπογράψει μια ανοιχτή επιστολή που αντιτίθεται στην έρευνα και ζητά από τον εκδότη της να την επανεξετάσει. Η αμφιλεγόμενη έρευνα που προκάλεσε ποικίλες αντιδράσεις, πρόκειται να επισημανθεί σε μια επερχόμενη σειρά βιβλίων από την Springer Nature. Οι συγγραφείς της έρευνας ισχυρίζονται ότι το αυτοματοποιημένο software αναγνώρισης προσώπου τους μπορεί να προβλέψει εάν ένα άτομο θα γίνει εγκληματίας, γεγονός που μπορεί να διευκολύνει το έργο των υπηρεσιών επιβολής του νόμου, καθιστώντας δυνατή την προγνωστική αστυνόμευση. Συγκεκριμένα, ο Nathaniel J.S Ashby, καθηγητής στο Πανεπιστήμιο του Χάρισμπουργκ και συγγραφέας της έρευνας, ανέφερε πως αυτοματοποιώντας την αναγνώριση πιθανών απειλών χωρίς προκατάληψη, στόχος τους είναι να αναπτύξουν εργαλεία που θα συμβάλλουν στην πρόληψη την εγκληματικότητας, την επιβολή του νόμου και τις στρατιωτικές εφαρμογές που επηρεάζονται λιγότερο από έμμεσες προκαταλήψεις και συναισθηματισμούς. Στην έρευνα συμμετείχαν επίσης ο Harrisburg Roozbeh Sadeghian, Επίκουρος Καθηγητής του Πανεπιστημίου και ο Jonathan W. Korn, μεταπτυχιακός φοιτητής που επισημαίνεται ως βετεράνος της NYPD σε δελτίο τύπου. Ο Korn επαίνεσε ένα software που, όπως λέγεται, μπορεί να προβλέψει την εγκληματικότητα, αποτελώντας έτσι ένα σημαντικό εργαλείο για τις υπηρεσίες επιβολής του νόμου.

εγκληματικότητα

Στην ανοιχτή επιστολή που αντιτίθεται στη δημοσίευση της έρευνας, οι ερευνητές AI εξέφρασαν τις ανησυχίες τους για αυτήν και προέτρεψαν την επιτροπή ελέγχου της Springer να αποσύρει την προσφορά της. Η επιστολή απευθύνθηκε επίσης σε άλλους εκδότες, παρακινώντας τους να αρνηθούν να δημοσιεύσουν παρόμοια μελλοντική έρευνα, επισημαίνοντας πολλούς λόγους για τους οποίους τόσο η αναγνώριση προσώπου όσο και η τεχνολογία που έχει στόχο να προβλέψει την εγκληματικότητα, πρέπει να προσεγγιστούν με μεγάλη προσοχή και να μην χρησιμοποιηθούν σε βάρος ήδη ευάλωτων και στοχοποιημένων κοινωνικών ομάδων. Οι επιστήμονες που αντιτίθενται στην έκδοση της έρευνας, δεν προβληματίζονται μόνο για το γεγονός ότι τίθεται ένα σοβαρό ζήτημα ηθικής, αλλά εκφράζουν και τις αμφιβολίες τους για την έρευνα, επικρίνοντάς την για αβάσιμες επιστημονικές τοποθετήσεις και μεθόδους. Πρόσθεσαν ακόμη πως πρόκειται για στοιχεία εξαιτίας των οποίων έχουν αποσυρθεί πολλές έρευνες κατά καιρούς.

software-AI


Οι αλγόριθμοι αναγνώρισης προσώπου έχουν από καιρό επικριθεί για την κακή απόδοση στην αναγνώριση προσώπων που δεν αντιπροσωπεύουν λευκές φυλές, μεταξύ πολλών άλλων επιστημονικών και ηθικών ανησυχιών που ανακύπτουν συχνά για αυτό το είδος software. Δεδομένου ότι η εν λόγω έρευνα ανέπτυξε software αναγνώρισης προσώπου που μπορεί να εφαρμοστεί για προγνωστική αστυνόμευση, τα μερίδια της τεχνολογίας δεν θα μπορούσαν να είναι υψηλότερα. Η ομάδα των επιστημόνων που αντιτίθενται σε αυτή την έρευνα, ανέφερε πως τα προγράμματα μηχανικής μάθησης δεν είναι ουδέτερα. Οι ερευνητικές ατζέντες και τα σύνολα δεδομένων με τα οποία δουλεύουν συχνά μεταφέρουν κάποιες πολιτιστικές πεποιθήσεις στον κόσμο. Τέλος, αυτά τα συστήματα συνεπάγονται την αναπαραγωγή ιδεών που ενδέχεται να ομαλοποιήσουν τις κοινωνικές ιεραρχίες και να νομιμοποιήσουν τη βία κατά των περιθωριοποιημένων ομάδων.

Pohackontas
Pohackontashttps://www.secnews.gr
Every accomplishment starts with the decision to try.

Εγγραφή στο Newsletter

* indicates required

FOLLOW US

LIVE NEWS