HomeinetChatGPT creates gibberish and here's the proof!

ChatGPT creates gibberish and here's the proof!

The ChatGPT of OpenAI, όπως επιβεβεβαιώνεται, μπορεί να δημιουργήσει ασυναρτησίες κατά τη διάρκεια παραγωγής κειμένου.

ChatGPT παραγωγή κειμένου

Το ChatGPT παρουσιάζει προβλήματα στη λειτουργία του. Αυτό είναι πλέον γνωστό σε όλους. Την Τρίτη φάνηκε ότι κάποιος δημιούργησε ένα πειραματικό, διασκεδαστικό chatbot με το όνομα Synonym Scrambler.

Read more: Emerald Sleet deceives Linkedin users via ChatGPT

Το ChatGPT προκάλεσε αναστάτωση με πολλούς τρόπους χθες. Ένα πρόβλημα ήταν η τάση του να απαντά σε κανονικές, καθημερινές ερωτήσεις – συνήθως σχετικές με Technology ή επιχειρήσεις – όπου οι απαντήσεις του είναι ασαφείς.

Φαίνεται ότι το ChatGPT έγραψε με μια προσέγγιση, όπου ένας μαθητής καταχράται τα προνόμιά του. Το “Beatine” αποτελεί ένα χαρακτηριστικό παράδειγμα. Το αναζητήσαμε στο Αγγλικό Λεξικό της Οξφόρδης και δεν υπάρχει εκεί, ωστόσο το Βικιλεξικό αναφέρει ότι σχετίζεται με τον θεολόγο Beatus της Liébana, έναν μελετητή πολλών ετών πίσω, οπότε το “beatine” κατά την πρώτη χιλιετία μ.Χ ίσως σήμαινε “αποκαλυπτικό”. Ή, αν αναλογιστούμε τον τρόπο που χρησιμοποιείται σε αρχαία, σκονισμένα βιβλία.

Το chatbot προκάλεσε ζητήματα σε πολλούς χρήστες. Ο χρήστης με το όνομα homtanksreddit παρατήρησε ότι το ChatGPT 3.5 — το οποίο είναι διαθέσιμο δωρεάν — φάνηκε να μην επηρεάζεται. Έτσι, το error φαινόταν να επηρεάζει μόνο τους συνδρομητές.

Σε ορισμένες περιπτώσεις, το ChatGPT ξεκινά να απαντά στην ερώτηση του χρήστη χρησιμοποιώντας τη σύγχρονη γλώσσα προτού μετατραπεί σε μια εκδοχή του Martin Prince που έχει καταναλώσει υπερβολική καφεΐνη. Ένας χρήστης μοιράστηκε ένα στιγμιότυπο οθόνης από το ChatGPT στέλνοντάς το στην ίδια την εφαρμογή. Στη δημοσίευσή του, περιέγραψε το πρόβλημα που αντιμετώπισε το ChatGPT και ρώτησε για το πώς ονομάζεται μια τέτοια κατάσταση. Πράγματι, η απάντηση του ChatGPT ήταν επιτυχής.

Read more: Chat with RTX: NVIDIA's new chatbot works locally on the PC

Δεν υπάρχει κοινώς αποδεκτός ορισμός για το πότε ένα language model όπως το GPT (Generative Pre-trained Transformer) θα ξεκινήσει να δημιουργεί αποτελέσματα που αποτελούν μια σαφή και συναφή απάντηση σε ερωτήσεις ή αντίθετα παρουσιάζουν απόκλιση και ανοησίες. Ωστόσο, αυτό το φαινόμενο μπορεί να χαρακτηριστεί ως “απότομη πτώση επιδόσεων” ή “κατάσταση αποτυχίας” του LLM (Large Language Model).

Αρχικά δεν ήταν κάτι ιδιαίτερα ανησυχητικό. Ωστόσο, στη συνέχεια, κάτι ασυνήθιστο συνέβη, καθώς τονίστηκε ότι “η εσφαλμένη ανάλυση σε επίπεδο byte μπορεί να αποβεί σημαντική για τη δομή”. …και τότε τα πράγματα έγιναν ακόμα πιο ασυνήθιστα:

Όταν παρατηρεί κανείς σε εφαρμογές ένα σύστημα NLP που προσφέρει ενδιαφέρουσες αρχικές εκκινήσεις αλλά στη συνέχεια οδηγεί σε σύγχυση ή αποτυχία κατά την εκτέλεσή τους, μπορεί να υπονομεύει την αποτελεσματικότητά του μέσω μιας πολλαπλής Violation.

ChatGPT OpenAI

Αυτή η συμπεριφορά θα πρέπει να καταγραφεί και να αναλυθεί προκειμένου να κατανοηθεί ο βασικός σχεδιασμός και να προχωρήσει αποτελεσματικά, κάτι που είναι ζωτικό για την ανάπτυξη και την απόδοση των προγραμματιστών.

See also: Managers use ChatGPT to write performance reviews

Source: mashable.com

SecNews
SecNewshttps://secnews.gr
In a world without fences and walls, who need Gates and Windows
spot_img

Subscribe to the Newsletter

* indicates required

FOLLOW US

LIVE NEWS