ΑρχικήsecurityΗΠΑ και ΗΒ κυκλοφορούν νέες κατευθυντήριες γραμμές για την ανάπτυξη ασφαλών AI...

ΗΠΑ και ΗΒ κυκλοφορούν νέες κατευθυντήριες γραμμές για την ανάπτυξη ασφαλών AI συστημάτων

Το Ηνωμένο Βασίλειο και οι ΗΠΑ, μαζί με άλλες 16 άλλες χώρες, κυκλοφόρησαν νέες κατευθυντήριες γραμμές, που πρέπει να ακολουθούν οι εταιρείες για την ανάπτυξη ασφαλών συστημάτων τεχνητής νοημοσύνης (AI).

κατευθυντήριες γραμμές AI

Η προσέγγιση δίνει προτεραιότητα στην ιδιοκτησία των αποτελεσμάτων ασφάλειας για τους πελάτες, αγκαλιάζει την πλήρη διαφάνεια και υπευθυνότητα και δημιουργεί οργανωτικές δομές όπου ο ασφαλής σχεδιασμός είναι κορυφαία προτεραιότητα“, δήλωσε η Υπηρεσία Κυβερνοασφάλειας και Ασφάλειας Υποδομών των ΗΠΑ (CISA).

Το Εθνικό Κέντρο Κυβερνοασφάλειας (NCSC) λέει ότι οι κατευθυντήριες γραμμές στοχεύουν στην αύξηση των επιπέδων cybersecurity του AI για να διασφαλιστεί ότι η τεχνολογία σχεδιάζεται, αναπτύσσεται και εφαρμόζεται με ασφαλή τρόπο.

Δείτε επίσης: Έρευνα του Ipsos Consumer Tracker σχετικά με την τεχνητή νοημοσύνη

Επίσης, οι νέες κατευθυντήριες γραμμές βασίζονται στις προσπάθειες της κυβέρνησης των ΗΠΑ για τη διαχείριση των κινδύνων που θέτει η τεχνητή νοημοσύνη (AI). Έτσι, έχει αποφασιστεί ότι πρέπει να διασφαλίζεται ότι τα νέα εργαλεία δοκιμάζονται επαρκώς πριν από τη δημόσια κυκλοφορία και ότι υπάρχουν προστατευτικά κιγκλιδώματα για την αντιμετώπιση πιθανών βλαβών στο κοινωνικό σύνολο. Για παράδειγμα, θα πρέπει να διασφαλιστεί ότι δεν υπάρχει μεροληψία και διακρίσεις και θα πρέπει να διευθετηθούν οποιεσδήποτε ανησυχίες σχετικά με την ιδιωτική ζωή. Τέλος, θα πρέπει να εξασφαλιστεί ότι οι καταναλωτές θα είναι σε θέση να εντοπίσουν υλικό που δημιουργείται από τεχνητή νοημοσύνη.

Επιπλέον, οι νέοι κανόνες απαιτούν από τις εταιρείες να δεσμευτούν ότι θα επιτρέπουν και θα διευκολύνουν τρίτους στην ανακάλυψη και αναφορά ευπαθειών στα AI συστήματά τους. Ουσιαστικά, οι εταιρείες θα πρέπει να έχουν bug bounty προγράμματα ώστε ερευνητές να μπορούν να βρουν κενά ασφαλείας. Αυτό θα επιτρέπει την άμεση επιδιόρθωσή τους, ενώ οι ερευνητές θα λαμβάνουν μια χρηματική αμοιβή για τη δουλειά τους.

Δείτε επίσης: Τεχνητή νοημοσύνη (AI) και τεχνολογία παρακολούθησης

Οι πιο πρόσφατες οδηγίες “βοηθούν τους προγραμματιστές να διασφαλίσουν ότι η ασφάλεια στον κυβερνοχώρο είναι τόσο βασική προϋπόθεση για την ασφάλεια του συστήματος AI όσο και αναπόσπαστο μέρος της διαδικασίας ανάπτυξης εξαρχής και καθ’ όλη τη διάρκεια, μια προσέγγιση γνωστή ως secure by design“, δήλωσε το NCSC.

τεχνητή νοημοσύνη

Αυτό περιλαμβάνει ασφαλή σχεδιασμό, ασφαλή ανάπτυξη, ασφαλή εφαρμογή και ασφαλή λειτουργία και συντήρηση, καλύπτοντας όλους τους σημαντικούς τομείς στον κύκλο ζωής ανάπτυξης συστημάτων AI. Οι εταιρείες θα πρέπει να μοντελοποιούν τις απειλές για τα συστήματά τους καθώς και να προστατεύουν τις αλυσίδες εφοδιασμού και την υποδομή τους.

Επίσης, οι υπηρεσίες ασφαλείας των χωρών που συμμετέχουν σε αυτή την πρωτοβουλία λένε ότι είναι σημαντικό να καταπολεμηθούν οι επιθέσεις που στοχεύουν συστήματα τεχνητής νοημοσύνης και μηχανικής εκμάθησης (ML) με στόχο την πραγματοποίηση  μη εξουσιοδοτημένων ενεργειών και την κλοπή ευαίσθητων πληροφοριών.

Οι νέες κατευθυντήριες γραμμές για την ανάπτυξη ασφαλών συστημάτων Τεχνητής Νοημοσύνης (AI) από τις Η.Π.Α., το Ηνωμένο Βασίλειο και παγκόσμιους εταίρους θα φέρουν επανάσταση στην ασφάλεια της Τεχνητής Νοημοσύνης.

Δείτε επίσης: Πολλοί IT επαγγελματίες είναι αρνητικοί στη χρήση τεχνητής νοημοσύνης (AI)

Θα επιτρέψουν στους προγραμματιστές και τις εταιρείες να αναπτύσσουν AI συστήματα που είναι πιο ανθεκτικά στις επιθέσεις και να προστατεύουν την ιδιωτικότητα και την ασφάλεια των χρηστών.

Επιπλέον, οι κατευθυντήριες γραμμές θα προωθήσουν τη διαφάνεια και την ευθύνη στην ανάπτυξη της Τεχνητής Νοημοσύνης, διασφαλίζοντας ότι οι αλγόριθμοι και οι αποφάσεις των AI συστημάτων είναι δίκαιοι και αξιόπιστοι.

Πηγή: thehackernews.com

Digital Fortress
Digital Fortresshttps://secnews.gr
Pursue Your Dreams & Live!

Εγγραφή στο Newsletter

* indicates required

FOLLOW US

LIVE NEWS