ΑρχικήinetFuture of Life Institute: επιστολή για το AI σε οπλικά συστήματα

Future of Life Institute: επιστολή για το AI σε οπλικά συστήματα

Future of Life Institute: 2.400 ερευνητές και περισσότερες από 100 εταιρείες τεχνολογίας από όλο τον κόσμο απαίτησαν την παγκόσμια απαγόρευση των θανατηφόρων αυτόνομων όπλων και δεσμεύθηκαν να μην τα παράγουν, σε μια επιστολή που δημοσίευσε το ινστιτούτο Future of Life της Στοκχόλμης.Future of Life Institute

Εμείς, οι υπογράφοντες, καλούμε τους παγκόσμιους ηγέτες να δημιουργήσουν ένα μέλλον με ισχυρά διεθνή πρότυπα, κανονισμούς και νόμους κατά των θανατηφόρων αυτόνομων όπλων. Αυτούς που απουσιάζουν σήμερα. Επιλέγουμε να είμαστε σε υψηλό επίπεδο: δεν θα συμμετέχουμε ούτε θα υποστηρίξουμε την ανάπτυξη, κατασκευή, εμπορία ή χρήση θανατηφόρων αυτόνομων όπλων. Ζητάμε από τις εταιρείες τεχνολογίας και τους οργανισμούς, καθώς και τους ηγέτες, τους υπευθύνους για τη χάραξη πολιτικής και άλλα άτομα, να γίνουν μέλη αυτής της υπόσχεσης.

Στους υπογράφοντες συμπεριλαμβάνονται οι συμπατριώτες του Elon Musk, και συνιδρυτές του DeepMind – Shane Legg, Mustafa Suleyman και Demis Hassabis, ο ιδρυτής της Skype Jaan Tallinn και μερικοί από τους κορυφαίους ερευνητές του AI όπως ο Stuart Russell, ο Yoshua Bengio και ο Jürgen Schmidhuber.
Η Google Deepmind, το XPRIZE Foundation και η Clearpath Robotics ήταν μερικές από τις εταιρείες τεχνολογίας που υπέγραψαν.
Η ιστοσελίδα του Future of Life Institute, αναφέρει επίσης ότι 26 χώρες των Ηνωμένων Εθνών έχουν επίσης εγκρίνει την απαγόρευση των θανατηφόρων αυτόνομων όπλων: Αλγερία, Αργεντινή, Αυστρία, Βολιβία, Βραζιλία, Χιλή, Κίνα, Κολομβία, Κόστα Ρίκα, Κούβα, Τζιμπουτί, Ισημερινός, Γουατεμάλα, Ιράκ, Μεξικό, Νικαράγουα, Πακιστάν, Παναμάς, Περού, Πολιτεία της Παλαιστίνης, Ουγκάντα, Βενεζουέλα και Ζιμπάμπουε.
Η επιστολή αυτή δημοσιεύθηκε σήμερα στο Διεθνές Κοινό Συνέδριο Τεχνητής Νοημοσύνης (IJCAI) του 2018 που διοργανώθηκε από το Future of Life Institute.
Η κίνηση αυτή έρχεται σε μια εποχή που οι κορυφαίες εταιρείες τεχνολογίας αντιμετωπίζουν ένα μεγάλο εσωτερικό δίλημμα για την ανάπτυξη του AI για στρατιωτική χρήση.
Τον Μάιο, δώδεκα περίπου εργαζόμενοι της Google έφυγαν από την εταιρεία για τη συμμετοχή της στο Project Maven του αμερικανικού στρατού – ένα πρόγραμμα τεχνητής νοημοσύνης για το Πεντάγωνο. Περίπου 4.000 άλλοι υπάλληλοι υπέγραψαν μια αναφορά ζητώντας από την εταιρεία να σταματήσει τη συνεισφορά της στο πρόγραμμα.
Η σημερινή επιστολή που δημοσιεύθηκε στη Στοκχόλμη από το Future of Life Institute δεν είναι η πρώτη ανοιχτή προειδοποίηση για το οπλοστάσιο που χρησιμοποιεί AI. Τον περασμένο Σεπτέμβριο, περισσότεροι από 100 διευθύνοντες σύμβουλοι επιχειρήσεων AI σε όλο τον κόσμο υπέγραψαν μια ανοιχτή επιστολή προς τον ΟΗΕ, προειδοποιώντας ότι το έργο τους θα μπορούσε να χρησιμοποιηθεί για την κατασκευή θανατηφόρων όπλων.
Παρόλο που κάποιες εταιρείες ζητούν την απαγόρευση της χρήσης του AI στα όπλα, ο τομέας της τεχνητής νοημοσύνης θα συνεχίσει να εξελίσσεται. Έτσι σίγουρα θα υπάρξουν και κάποιοι που θα προσπαθήσουν να χρησιμοποιήσουν την τεχνολογία σε οπλικά συστήματα.
Ας ελπίσουμε ότι πρωτοβουλίες όπως αυτή θα βρουν ανταπόκριση από τους ηγέτες του κόσμου, καθώς με την ανάπτυξη του AI, αυξάνεται και η ανάγκη παγκόσμιας εποπτείας και ρύθμισης.
Διαβάστε την online επιστολή
_______________________________

SecNews
SecNewshttps://www.secnews.gr
In a world without fences and walls, who need Gates and Windows

Εγγραφή στο Newsletter

* indicates required

FOLLOW US

LIVE NEWS