ΑρχικήUpdatesΗ GitHub ενημέρωσε το μοντέλο AI του Copilot

Η GitHub ενημέρωσε το μοντέλο AI του Copilot

Το AI μοντέλο του Copilot της Github, ένας βοηθός προγραμματισμού ο οποίος μπορεί σε πραγματικό χρόνο να παράγει κώδικα και να δώσει προτάσεις για λειτουργίες, αναβαθμίστηκε και πλέον είναι πιο ασφαλές.

GitHub's Copilot A.I

Το νέο μοντέλο -το οποίο θα κυκλοφορήσει την επόμενη βδομάδα- λέει η εταιρία, πως θα προσφέρει καλύτερης ποιότητας προτάσεις και σε λιγότερο χρόνο καθώς και θα βελτιώσει την αποδοτικότητα των προγραμματιστών που το χρησιμοποιούν αυξάνοντας το ποσοστό αποδοχής.

Δείτε επίσης: Copilot: Το νέο AI εργαλείο δημιουργίας κώδικα από GitHub και OpenAI

Το Copilot θα φέρει επανάσταση στον προγραμματισμό με το επαναστατικό σύστημα “Fill-In-the-Middle”. Αυτή η διαδικασία χρησιμοποιεί μια συλλογή από ήδη υπάρχουσες καταλήξεις κώδικα και επιτρέπει στο εργαλείο AI να συμπληρώσει τα κενά, δίνοντάς του μεγαλύτερη ακρίβεια και επιτρέποντας την ομοιομορφία στη δομή κωδικοποίησης του προγράμματος.

Επιπλέον, η GitHub αναβάθμισε τον client του Copilot ώστε να μειώνει τις ανεπιθύμητες προτάσεις κατά 4,5% ώστε να βελτιωθεί γενικά το ποσοστό αποδοχής του κώδικα.

«Όταν κυκλοφόρησε για πρώτη φορά το GitHub Copilot για Individuals τον Ιούνιο του 2022, περισσότερο από το 27% των αρχείων κώδικα των προγραμματιστών κατά μέσο όρο δημιουργήθηκαν από το GitHub Copilot. Σήμερα το Copilot είναι πίσω από το κατά μέσο όρο 46% τον κώδικα ενός προγραμματιστή μεταξύ όλων τον προγραμματιστικών γλωσσών- και στην Java ο αριθμός φτάνει το 61%» είπε ο Ανώτερος Διευθυντής Διαχείρισης Προϊόντων Shuyin Zhao.

Διαβάστε επίσης: GitHub: Απλοποιεί τη διαδικασία αναγνώρισης ευπαθειών

GitHub's Copilot A.I

Πιο ασφαλείς προτάσεις

Ένα πολύ σημαντικό χαρακτηριστικό στην νέα αναβάθμιση είναι η εισαγωγή ενός νέου συστήματος το οποίο φιλτράρει τις αδυναμίες στην ασφάλεια και βοηθάει στην αναγνώριση και στο μπλοκάρισμα επισφαλών προτάσεων όπως hardcoded credentials, εισαγωγές διαδρομών(paths) και εισαγωγές SQL.

«Το νέο σύστημα επηρεάζει τα LLMs(large language models) για να προσεγγίσει την συμπεριφορά στατικών αναλυτικών εργαλείων. Χάρη στα προηγμένα μοντέλα τεχνητής νοημοσύνης και τους ισχυρούς υπολογιστικούς πόρους του, το GitHub Copilot είναι απίστευτα γρήγορο και ικανό να αναγνωρίζει πιθανά τρωτά σημεία σε ελλιπή τμήματα κώδικα» είπε ο Zhao.

«Η ασφάλεια είναι υψίστης σημασίας και με αυτό κατά νου, τα επισφαλή πρότυπα κωδικοποίησης εντοπίζονται γρήγορα και αντικαθίστανται από συνιστώμενες εναλλακτικές λύσεις.»

GitHub's Copilot A.I

Σύμφωνα με την εταιρεία λογισμικού, το Copilot είναι σε θέση να δημιουργεί μυστικά όπως κλειδιά, διαπιστευτήρια και κωδικούς πρόσβασης με βάση τα δεδομένα εκπαίδευσης. Ωστόσο, αυτές οι παραγόμενες συμβολοσειρές είναι καθαρά επινοημένες και θα απορρίπτονται από το ενημερωμένο σύστημα φιλτραρίσματος.

Πρόταση: Μήνυση στη Microsoft για πειρατεία λογισμικού ανοικτού κώδικα μέσω του GitHub Copilot

Η εμφάνιση αυτών των μυστικών στον κώδικα του Copilot όμως προκάλεσε αρκετές αντιδράσεις από την κοινότητα των προγραμματιστών με πολλούς να κατηγορούν την Microsoft ότι χρησιμοποιεί μεγάλο σετ από δημοσίως διαθέσιμα δεδομένα για την εκπαίδευση των AΙ μοντέλων, χωρίς να λαμβάνει υπόψη της την ασφάλεια, ενσωματώνοντας ακόμη και σύνολα δεδομένων που περιέχουν τις ίδιες ευαίσθητες λεπτομέρειες κατά λάθος.

Με αυτό το μπλοκάρισμα σε πραγματικό χρόνο μπορεί να παρέχει και μια αντίσταση εναντίον στις επιθέσεις με μολυσμένα σετ δεδομένων που στοχεύουν στο να εκπαιδεύσουν κρυφά τους βοηθούς AI να κάνουν προτάσεις που περιέχουν κακόβουλα φορτία.

Επί του παρόντος, οι LLM του Copilot διδάσκονται να ξεχωρίζουν τη διαφορά μεταξύ ευάλωτων και ασφαλών προτύπων κώδικα. Ως αποτέλεσμα, αναμένεται ότι οι δυνατότητες των μοντέλων AI σε αυτόν τον τομέα θα βελτιώνονται σταθερά με την πάροδο του χρόνου.

Πηγή πληροφοριών: bleepingcomputer.com

Teo Ehc
Teo Ehchttps://www.secnews.gr
Be the limited edition.

Εγγραφή στο Newsletter

* indicates required

FOLLOW US

LIVE NEWS