ΑρχικήyoutubeΗ τεχνολογία AI δεν μπορεί να ελεγχθεί με ασφάλεια προειδοποιεί ειδικός

Η τεχνολογία AI δεν μπορεί να ελεγχθεί με ασφάλεια προειδοποιεί ειδικός

Ένας ειδικός στον τομέα της τεχνητής νοημοσύνης (AI) διεξήγαγε μια εμπεριστατωμένη εξέταση της επιστημονικής βιβλιογραφίας και κατέληξε στο συμπέρασμα ότι δεν υπάρχουν αποδείξεις που να υποστηρίζουν την άποψη ότι η εν λόγω τεχνολογία μπορεί να ελεγχθεί με ασφάλεια.

Δείτε επίσης: Google Deepmind: AI τεχνολογία θα φέρει επανάσταση στην πρόγνωση του καιρού

Πέραν αυτού, ακόμα κι αν προτείνονται μηχανισμοί ή μέθοδοι για τον έλεγχο του AI, ο δρ. Roman V. Yampolskiy πιστεύει ότι αυτά τα μέτρα δεν θα είναι αρκετά για να εγγυηθούν την ασφάλεια.

AI ασφάλεια

Ο Δρ. Yampolskiy είναι επίκουρος καθηγητής με αναγνωρισμένη θέση στο Πανεπιστήμιο του Λούιβιλ και έχει δημοσιεύσει τα αποτελέσματα της έρευνάς του στο βιβλίο με τίτλο “AI Ανεξήγητη, Απρόβλεπτη, Ανεξήλεγκτη“.

Η εργασία του για την ασφάλεια της τεχνητής νοημοσύνης έχει ενισχυθεί μερικώς από τον Elon Musk και το Future of Life Institute (FLI), που ιδρύθηκε από τον Max Tegmark, καθηγητή στο MIT, και τον Jaan Tallinn, συνιδρυτή του Skype.

Ανησυχία σχετικά με τη διαχείριση και τον έλεγχο των κινδύνων του AI

Με την εισβολή νέων εργαλείων AI στην αγορά τον τελευταίο έναν χρόνο, ο Δρ. Yampolskiy υποστηρίζει ότι τα προηγμένα συστήματα θα αποτελούν πάντα κινδύνους, παρά τα πλεονεκτήματα που μπορεί να προσφέρουν, λόγω της απρόβλεπτης φύσης και της αυτονομίας τους.

Καθώς η τεχνητή νοημοσύνη, συμπεριλαμβανομένης της υπερνοημοσύνης, μπορεί να μάθει, να προσαρμοστεί και να ενεργήσει ημι-αυτόνομα, γίνεται όλο και πιο προκλητικό να διασφαλίσουμε την ασφάλειά της, ειδικά όσο αυξάνονται οι δυνατότητές της.

Μπορεί να ισχυριστεί κανείς ότι το σούπερ έξυπνο AI θα έχει αυτονομία. Ωστόσο, προκύπτει η ερώτηση: πώς μπορούμε να τo ελέγξουμε αποτελεσματικά; Οι νόμοι της ρομποτικής του Isaac Asimov, οι οποίοι καθιερώνουν έναν κώδικα ηθικής που διέπει τη σχέση μεταξύ ανθρώπων και ρομπότ, παραμένουν εφαρμόσιμοι στη σύγχρονη κοινωνία μας;

Δείτε ακόμα: Η Scarlett Johansson κινείται νομικά εναντίον του Lisa AI app επειδή μιμήθηκε τη φωνή της

Ο Δρ. Yampolskiy, ο οποίος έχει ως κύριο ενδιαφέρον την Ασφάλεια του AI, εξήγησε: “Αντιμετωπίζουμε ένα σχεδόν σίγουρο συμβάν με δυνατότητα να προκαλέσει μια ολέθρια καταστροφή.”

Ένα μείζον πρόβλημα αποτελούν οι ατελείωτες δυνητικές αποφάσεις και αποτυχίες των υπερευφυών οντοτήτων, καθιστώντας δύσκολη την πρόβλεψη και αντιμετώπισή τους.

Επίσης, η έλλειψη δυνατότητας εξήγησης στις αποφάσεις του AI προκαλεί ανησυχίες, καθώς η κατανόηση αυτών των αποφάσεων είναι κρίσιμη για τη μείωση των ατυχημάτων και την εξασφάλιση αποτελεσμάτων χωρίς προκαταλήψεις, ιδίως σε κρίσιμους τομείς όπως η υγεία και οι οικονομικές υπηρεσίες, όπου η τεχνητή νοημοσύνη έχει εισβάλει.

Καθώς η αυτονομία της τεχνητής νοημοσύνης αυξάνεται, ο έλεγχος του ανθρώπου μειώνεται, προκαλώντας ανησυχίες για την ασφάλεια. Ο δρ. Yampolskiy προτείνει μια ισορροπία ανάμεσα στην ικανότητα και τον έλεγχο, αναγνωρίζοντας ότι η υπερνοημοσύνη μπορεί να έχει ενσωματωμένη έλλειψη ελεγξιμότητας.

Επίσης, αναφέρεται στη σημασία της ευθυγράμμισης της τεχνητής νοημοσύνης με τις ανθρώπινες αξίες, προτείνοντας μεθόδους για την ελαχιστοποίηση των κινδύνων, όπως η κατασκευή τεχνητής νοημοσύνης με δυνατότητα τροποποίησης, τη διαφάνεια και την κατηγοριοποίηση ως ελέγξιμη ή μη ελέγξιμη.

Δείτε επίσης: Apple CEO: «Επενδύουμε σημαντικά στην τεχνητή νοημοσύνη»

Παρά τις προκλήσεις αυτές, ο Δρ. Yampolskiy συνιστά να συνεχιστεί η έρευνα και η επένδυση στην ασφάλεια του AI, επιμένοντας ότι ενώ η πραγματοποίηση 100% ασφαλούς τεχνητής νοημοσύνης μπορεί να είναι δυσεπίτευκτη, οι προσπάθειες για τη βελτίωση της ασφάλειας αξίζουν τον κόπο.

Πηγή: interestingengineering

Absenta Mia
Absenta Miahttps://secnews.gr
Being your self, in a world that constantly tries to change you, is your greater achievement
spot_img

Εγγραφή στο Newsletter

* indicates required

FOLLOW US

LIVE NEWS