ΑρχικήYoutubeΠόσο αξιόπιστο είναι τελικά το ChatGPT;

Πόσο αξιόπιστο είναι τελικά το ChatGPT;

Ένας ερευνητής εξηγεί τις υποσχέσεις και τους κινδύνους του να αφήνεις το ChatGPT να ψάχνει τον ιστό για σένα.

Πριν από τις μηχανές αναζήτησης, οι βιβλιοθηκονόμοι και οι ειδικοί λειτουργούσαν ως έμπιστη υποστήριξη για την πρόσβαση και την ανάκτηση πληροφοριών. Οι μέθοδοί τους ήταν διαδραστικές, προσαρμοσμένες, ειλικρινείς και αξιόπιστες – όλες οι ιδιότητες που λείπουν από τον κύριο τρόπο με τον οποίο οι άνθρωποι αναζητούν απαντήσεις σήμερα: εισάγοντας μερικές λέξεις-κλειδιά σε έναν άγνωστο αλγόριθμο για να λάβουν αταξινόμητα αποτελέσματα. Η αναζήτηση με αυτόν τον τρόπο απέχει πολύ από το ιδανικό!

Advertisement

Ο ψηφιακός κόσμος έχει εξελιχθεί δραστικά, καθώς τα συστήματα πρόσβασης σε πληροφορίες με τεχνητή νοημοσύνη, όπως το Bing/ChatGPT της Microsoft, το Google/Bard και το Meta/LLaMA, έχουν διαταράξει το παραδοσιακό μοντέλο μηχανών αναζήτησης. Είναι ενδιαφέρον ότι αυτές οι νέες πλατφόρμες είναι σε θέση να δέχονται ολόκληρες προτάσεις ή ακόμη και παραγράφους ως είσοδο για να παράγουν προσαρμοσμένες απαντήσεις φυσικής γλώσσας.

Αρχικά, η ιδέα της συγκέντρωσης εξατομικευμένων απαντήσεων μαζί με την απεραντοσύνη και την έκταση των πληροφοριών στο διαδίκτυο μπορεί να φαίνεται ιδανική. Ωστόσο, ως ερευνητής που αξιολογεί συστήματα αναζήτησης και προτάσεων, θεωρώ ότι αυτό το μείγμα απέχει πολύ από το να είναι τέλειο.

Πόσο αξιόπιστο είναι τελικά το ChatGPT;
ChatGPT: Πόσο κοντά είναι πραγματικά στο Google;

Τα συστήματα AI όπως το ChatGPT και το Bard βασίζονται σε μεγάλα γλωσσικά μοντέλα. Ένα γλωσσικό μοντέλο είναι μια τεχνική μηχανικής μάθησης που χρησιμοποιεί ένα μεγάλο σώμα διαθέσιμων κειμένων, όπως τα άρθρα της Wikipedia, για να μάθει πρότυπα. Αυτά τα μοντέλα υπολογίζουν ποια λέξη είναι πιθανό να ακολουθήσει, δεδομένου ενός συνόλου λέξεων ή μιας φράσης. Με τον τρόπο αυτό, είναι σε θέση να δημιουργήσουν προτάσεις, παραγράφους, ακόμη και σελίδες που αντιστοιχούν σε ένα ερώτημα ενός χρήστη. Στις 14 Μαρτίου 2023, η OpenAI ανακοίνωσε την επόμενη γενιά της τεχνολογίας, την GPT-4, η οποία λειτουργεί τόσο με κείμενο όσο και με εικόνα εισόδου, και η Microsoft ανακοίνωσε ότι το συνομιλιακό της Bing βασίζεται στην GPT-4.

Δείτε επίσης: Claude AI: Νέο chatbot από πρώην υπαλλήλους της OpenAI

Μέσω της χρήσης εκπαίδευσης με βάση τη μηχανική μάθηση, της τελειοποίησης και άλλων μεθόδων για την πλοήγηση σε μεγάλα σύνολα κειμένου, το ChatGPT είναι σε θέση να προσφέρει εντυπωσιακές δυνατότητες ανάκτησης πληροφοριών. Με εξατομικευμένες απαντήσεις προσαρμοσμένες σε κάθε ερώτημα, δεν είναι να απορεί κανείς που αυτό το σύστημα κατάφερε να συγκεντρώσει 100 εκατομμύρια χρήστες στο ένα τρίτο του χρόνου του TikTok. Έχει χρησιμοποιηθεί ακόμη και για πιο προηγμένες εργασίες, όπως η δημιουργία διαγνώσεων και η δημιουργία σχεδίων διατροφής ή η υποβολή επενδυτικών συστάσεων.

Αδιαφάνεια στο ChatGPT

Υπάρχουν όμως πολλά μειονεκτήματα που πρέπει να λάβετε υπόψη. Βασικά, τα μεγάλα γλωσσικά μοντέλα βασίζονται στη σύνδεση των λέξεων και των συνδεδεμένων ορισμών τους προκειμένου να παράγουν αποτελέσματα που φαίνονται “έξυπνα”. Δυστυχώς, αυτές οι απαντήσεις δεν προέρχονται από μια θέση πραγματικής κατανόησης- μάλλον αντικατοπτρίζουν απλώς τη μορφοποιημένη συσχέτιση μεταξύ ορισμένων όρων που δημιουργήθηκε από την τεχνητή νοημοσύνη. Παρόλο που μπορεί να φαίνεται σαν μια έξυπνη απάντηση κατά καιρούς, να θυμάστε ότι αυτό οφείλεται μόνο στο πλαίσιο που τοποθετείται μέσα σε μοτίβα λέξεων που έχουν βρει τα συστήματα τεχνητής νοημοσύνης.

Πόσο αξιόπιστο είναι τελικά το ChatGPT;
ChatGPT: Πόσο κοντά είναι πραγματικά στο Google;

Από τη φύση τους, τα εκτεταμένα συστήματα γλωσσικών μοντέλων μπορούν να κατασκευάσουν ή να “ψευδαισθανθούν” απαντήσεις. Επιπλέον, δεν έχουν τη γνωστική ικανότητα να κατανοούν ψευδείς προϋποθέσεις και να απαντούν σε μια ανακριβή ερώτηση. Για παράδειγμα, όταν του τέθηκε η ερώτηση για το ποιο πρόσωπο του προέδρου των ΗΠΑ βρίσκεται στο χαρτονόμισμα των 100 δολαρίων, το ChatGPT απάντησε τον Μπέντζαμιν Φράνκλιν χωρίς να κατανοήσει ότι δεν υπήρξε ποτέ πρόεδρος – ακυρώνοντας τη θεμελιώδη προϋπόθεση πίσω από αυτό το ερώτημα κατά τη διαδικασία.

Το κύριο πρόβλημα είναι ότι ακόμη και αν αυτές οι τεχνολογίες είναι ανακριβείς μόλις στο 10% του χρόνου, δεν υπάρχει κανένας τρόπος να εντοπιστούν ποιες είναι οι ανακρίβιες. Επιπλέον, είναι απαιτητικό για τα άτομα να επικυρώσουν άμεσα τα αποτελέσματα των συστημάτων, καθώς στερούνται διαφάνειας – δεν υπάρχει δημόσια πρόσβαση ως προς το ποια δεδομένα χρησιμοποιήθηκαν στην εκπαίδευση και από πού προήλθαν οι απαντήσεις τους.

Για παράδειγμα, αν ζητούσατε από το ChatGPT να συντάξει μια τεχνική έκθεση με παραπομπές, μπορεί να κατασκευάσει τους τίτλους αυτών των επιστημονικών εργασιών και να τους αποδώσει στους συγγραφείς. Επιπλέον, δεν θα επικυρώσει τις δικές του απαντήσεις, γεγονός που αφήνει το έργο στα χέρια σας – και ίσως να μην γνωρίζετε καν ότι η εξέταση των απαντήσεων ενός AI είναι απαραίτητη! Λόγω της περιορισμένης κατανόησης των γεγονότων, το ChatGPT δεν αναγνωρίζει πότε ένα ερώτημα φαίνεται παράλογο.

Όταν το AI κλέβει περιεχόμενο

Όταν η έλλειψη διαφάνειας μπορεί να είναι επιζήμια για τους χρήστες, είναι επίσης άδικη για τους συγγραφείς, τους καλλιτέχνες και τους δημιουργούς περιεχομένου, οι οποίοι δεν αποζημιώνονται ή δεν αναγνωρίζονται για το έργο τους που έχει χρησιμοποιηθεί ως πηγή από τα συστήματα. Αυτοί οι δημιουργοί θα πρέπει να έχουν το δικαίωμα να δίνουν τη συγκατάθεσή τους πριν από τη χρήση οποιουδήποτε υλικού που προέρχεται από αυτούς.

Πόσο αξιόπιστο είναι τελικά το ChatGPT;
ChatGPT: Πόσο κοντά είναι πραγματικά στο Google;

Το φαινόμενο αυτό έχει εκτεταμένες οικονομικές επιπτώσεις. Συνήθως, τα αποτελέσματα των μηχανών αναζήτησης παραπέμπουν στις πηγές- με αυτόν τον τρόπο οι χρήστες μπορούν να επαληθεύσουν τις απαντήσεις και να αποδώσουν τα εύσημα εκεί που τους αναλογούν, ενώ παράλληλα αυξάνεται η επισκεψιμότητα στο διαδίκτυο για τους ιστότοπους που παράγουν τα έσοδά τους με αυτόν τον τρόπο. Δυστυχώς, τα μεγάλα συστήματα γλωσσικών μοντέλων δεν φαίνεται να περιλαμβάνουν αυτούς τους συνδέσμους πηγής, γεγονός που θα μπορούσε να οδηγήσει σε μείωση των εσόδων για πολλούς από αυτούς τους ιστότοπους.

Τα μεγάλα γλωσσικά μοντέλα μπορούν να αφαιρέσουν τη μάθηση και την τύχη

Τέλος, αυτή η σύγχρονη τεχνική πρόσβασης σε λεπτομέρειες μπορεί να αφήσει τους ανθρώπους να αισθάνονται ανίσχυροι και χωρίς τη δυνατότητα να μελετήσουν. Η παραδοσιακή διαδικασία αναζήτησης επιτρέπει στους χρήστες να εξετάσουν διάφορες δυνατότητες για τις απαιτήσεις τους σε πληροφορίες, εμπνέοντάς τους ενδεχομένως να τροποποιήσουν αυτό που αναζητούν. Αυτό τους παρέχει επίσης την ευκαιρία να κατανοήσουν το διαθέσιμο περιεχόμενο και τον τρόπο με τον οποίο συνδέονται μεταξύ τους διαφορετικά κομμάτια γνώσης προκειμένου να ολοκληρώσουν εργασίες.

Δείτε επίσης: ChatGPT: Μήπως η Apple ετοιμάζει επιτέλους έναν ανταγωνιστή;

Αυτά τα στοιχεία της αναζήτησης δεν είναι μόνο κρίσιμα, αλλά όταν ένα σύστημα προσφέρει τα αποτελέσματά του χωρίς να αποκαλύπτει την προέλευση ή να παρέχει καθοδήγηση στον χρήστη καθώς εξερευνά, αφαιρεί από τον χρήστη την ικανότητα μάθησης.

Με τη χρήση μεγάλων γλωσσικών μοντέλων, οι χρήστες μπορούν να πραγματοποιούν γρήγορα αλληλεπιδράσεις με βάση τη φυσική γλώσσα, καθώς και να δημιουργούν εξατομικευμένες απαντήσεις και να εντοπίζουν μοτίβα που συνήθως απαιτούν πολύ μεγαλύτερη προσπάθεια. Δυστυχώς όμως, αυτές οι εφαρμογές τεχνητής νοημοσύνης εξακολουθούν να έχουν αξιοσημείωτους περιορισμούς λόγω της διαδικασίας εκμάθησής τους, οι οποίοι μπορεί να οδηγήσουν σε εσφαλμένο περιεχόμενο ή ακόμη και σε τοξικά αποτελέσματα μολυσμένα με προκατάληψη.

Άλλα συστήματα πρόσβασης σε πληροφορίες μπορεί επίσης να αντιμετωπίζουν αυτά τα ζητήματα, αλλά τα μεγαλύτερα συστήματα τεχνητής νοημοσύνης με γλωσσικά μοντέλα δεν έχουν διαφάνεια. Δυστυχώς, οι απαντήσεις τους στη φυσική γλώσσα μπορούν να συμβάλουν σε μια λανθασμένη αίσθηση εμπιστοσύνης και εξουσίας που μπορεί να θέσει σε κίνδυνο τους μη ενημερωμένους χρήστες.

Πηγή: gizmodo.com

SecNews
SecNewshttps://www.secnews.gr
In a world without fences and walls, who need Gates and Windows
spot_img

Εγγραφή στο Newsletter

* indicates required

FOLLOW US

LIVE NEWS