Το Malwarebytes έλυσε το σφάλμα «freezing» των συσκευών Windows 7
infosec

Το Malwarebytes έλυσε το σφάλμα «freezing» των συσκευών Windows 7

Η ομάδα του Malwarebytes επιτέλους έδωσε λύση στο σφάλμα που προκαλούσε πάγωμα σε συσκευές Windows 7! Το πρόβλημα εντοπίστηκε νωρίτερα...
Read More
infosec

Κορυφαίες Android VPN εφαρμογές διαρρέουν προσωπικά δεδομένα

Σύμφωνα με μία νέα μελέτη από VPN αξιολογητές, πάνω από 25% των 150 πιο δημοφιλών και δωρεάν VPNs στο Google...
Read More
infosec

Το Megabreach των 773 εκατομμυρίων Passwords ξεκίνησε χρόνια πριν

Πρόσφατα κυκλοφόρησε η είδηση, ότι σχεδόν 773 εκατομμύρια διευθύνσεις ηλεκτρονικού ταχυδρομείου και 21 εκατομμύρια passwords δημοσιεύθηκαν σε ένα φόρουμ hacking....
Read More
infosec

Instagram influencers ανακτούν τα accounts με τη βοήθεια hackers

Οι Instagram influencers που έχουν δει τους λογαριασμούς τους να χακάρονται και τις προσωπικές τους πληροφορίες να εκτίθενται, λένε ότι...
Read More
infosec

Windows 10: Πώς να διορθώσετε το browsing σφάλμα στο Microsoft Edge

Η τελευταία αναβάθμιση που κυκλοφόρησε από τη Microsoft για τα Windows 10 έφερε ένα πρόβλημα, το οποίο παρατηρείται όταν επιχειρεί...
Read More
Latest Posts

Η τεχνολογία του AI μπορεί να αναγεννά πρόσωπα με μεγάλη ακρίβεια

Οι εξελίξεις στην τεχνητή νοημοσύνη προχωρούν με εντυπωσιακούς ρυθμούς – τόσο πολύ ώστε να είναι συχνά δύσκολο να τις παρακολουθήσουμε. Η τεχνολογία χρησιμοποιεί νευρωνικά δίκτυα για να δημιουργήσει ψεύτικα πρόσωπα, που όμως γίνονται όλο και πιο αληθοφανή.

Στην ακόλουθη εικόνα μπορείτε να δείτε ποια ήταν η πρόοδος του AI μέσα στα τελευταία τέσσερα χρόνια. Τα ακατέργαστα ασπρόμαυρα πρόσωπα στα αριστερά είναι από το 2014 και δημοσιεύτηκαν ως μέρος ενός εγγράφου που εισήγαγε ένα εργαλείο AI, γνωστό ως generative adversarial network (GAN). Τα έγχρωμα πρόσωπα που φαίνονται στα δεξιά, προέρχονται από ένα έγγραφο που δημοσιεύθηκε νωρίτερα αυτό το μήνα, το οποίο χρησιμοποιεί την ίδια βασική μέθοδο, αλλά είναι σαφώς πολύ πιο εξελιγμένο από άποψη  ποιότητας της εικόνας.

Αυτά τα ρεαλιστικά πρόσωπα είναι έργο των ερευνητών της Nvidia. Στην έρευνά τους, που δημοσίευσαν την περασμένη εβδομάδα, περιγράφουν την τροποποίηση της βασικής αρχιτεκτονικής του GAN, για να δημιουργήσουν αυτές τις εικόνες. Όπως θα διαπιστώσετε και μόνοι σας, είναι πολύ δύσκολο να ξεχωρίσουμε αν είναι αληθινές ή ψεύτικες.

Αυτό που είναι ιδιαίτερα ενδιαφέρον είναι ότι αυτά τα ψεύτικα πρόσωπα μπορούν εύκολα να αλλάξουν. Οι μηχανικοί της Nvidia ενσωμάτωσαν στη δουλειά τους μια μέθοδο γνωστή ως style transfer, στην οποία τα χαρακτηριστικά μιας εικόνας αναμειγνύονται με εκείνα μιας άλλης. Μπορεί να αναγνωρίζετε τον όρο από διάφορα φίλτρα εικόνας που είναι δημοφιλή, σε εφαρμογές όπως το Prisma και το Facebook τα τελευταία χρόνια, τα οποία μπορούν να κάνουν τις φωτογραφίες σας να μοιάζουν για παράδειγμα με έναν πίνακα ιμπρεσιονιστικού στυλ.

Η εφαρμογή του style transfer στη δημιουργία προσώπων, επέτρεψε στους ερευνητές της Nvidia να προσαρμόσουν τα πρόσωπα σε εντυπωσιακό βαθμό. Στο παρακάτω κολάζ, μπορείτε να το δείτε σε δράση. Μια εικόνα ενός πραγματικού προσώπου παίρνει τα χαρακτηριστικά του προσώπου ενός άλλου. Χαρακτηριστικά όπως το χρώμα του δέρματος και των μαλλιών αναμειγνύονται μαζί, δημιουργώντας αυτό που μοιάζει να είναι ένα εντελώς νέο άτομο.

Φυσικά, η ικανότητα δημιουργίας ρεαλιστικών προσώπων AI εγείρει ανησυχητικές ερωτήσεις. Οι ειδικοί έχουν σημάνει συναγερμό, τα τελευταία δύο χρόνια, σχετικά με το πώς μπορεί να επηρεάσει την κοινωνία το AI. Αυτά τα εργαλεία θα μπορούσαν να χρησιμοποιηθούν για παραπληροφόρηση και προπαγάνδα και θα μπορούσαν να διαταράξουν την εμπιστοσύνη του κοινού σε αυτό που βλέπουν, μια τάση που θα μπορούσε να βλάψει το δικαστικό σύστημα καθώς και την πολιτική.

Αυτές οι προειδοποιήσεις δεν πρέπει να αγνοούνται. Όπως έχουμε δει και με τη χρήση του deepfakes, για τη δημιουργία μη συναινετικής πορνογραφίας, υπάρχουν πάντα άνθρωποι που είναι πρόθυμοι να χρησιμοποιήσουν αυτά τα εργαλεία με αμφισβητούμενους τρόπους. Αλλά ταυτόχρονα, παρά τα λεγόμενα, η δυνατότητα δημιουργίας προσώπων δεν είναι πάντα τόσο εύκολη όσο φαίνεται και δεν έχει πάντα την ίδια πιστότητα. Υπάρχουν επίσης σοβαροί περιορισμοί όσον αφορά την εμπειρογνωμοσύνη και το χρόνο. Οι ερευνητές της Nvidia χρειάστηκαν μια εβδομάδα για να εκπαιδεύσουν το μοντέλο τους σε οκτώ Tesla GPUs, ώστε να δημιουργήσουν αυτά τα πρόσωπα.

Υπάρχουν επίσης ενδείξεις που μπορούμε να αναζητήσουμε για να εντοπίσουμε τα ψεύτικα πρόσωπα. Σε ένα πρόσφατο blog post, ο καλλιτέχνης και προγραμματιστής Kyle McDonald ανέφερε μια σειρά ενδείξεων. Τα μαλλιά, για παράδειγμα, είναι πολύ δύσκολο να πλαστογραφηθούν. Συχνά μοιάζουν σαν να είναι ζωγραφισμένα ή πολύ θολά, όταν προστίθενται στο πρόσωπο κάποιου. Ομοίως, οι γεννήτριες ΑΙ δεν κατανοούν πλήρως την συμμετρία του ανθρώπινου προσώπου. Συχνά τοποθετούν τα αυτιά σε διαφορετικό ύψος ή κάνουν τα μάτια διαφορετικά χρώματα. Επίσης, δεν είναι πολύ καλά στο να δημιουργούν κείμενο ή αριθμούς.

Παρόλα αυτά όμως, αυτές οι υποδείξεις πιθανώς δεν αποτελούν τεράστια παρηγοριά. Εξάλλου, η δουλειά της Nvidia δείχνει πόσο γρήγορη είναι η εξέλιξη του AI σε αυτόν τον τομέα και δεν θα περάσει πολύς καιρός μέχρι οι ερευνητές να δημιουργήσουν αλγόριθμους που θα μπορούν να διορθώσουν αυτέ τις ατέλειες.

Ευτυχώς, οι ειδικοί ήδη σκέφτονται νέους τρόπους για την εξακρίβωση ταυτότητας των ψηφιακών φωτογραφιών. Ορισμένες μέθοδοι έχουν ήδη ξεκινήσει, όπως εφαρμογές κάμερας που ελέγχουν τις εικόνες με βάση τη γεωφυσική τους προέλευση για να επαληθεύσουν πότε και πού τραβήχτηκαν, για παράδειγμα. Είναι προφανές ότι θα υπάρξει μάχη μεταξύ του AI και των αυθεντικών εικόνων τις επόμενες δεκαετίες. Και αυτή τη στιγμή, το AI έχει σίγουρα το προβάδισμα!

Έχετε άποψη; Αφήστε το σχόλιό σας.

Ο συντάκτης σας επιτρέπει να αντιγράψετε το κείμενό του, μόνο εφόσον αναφέρετε την πηγή (SecNews.gr), σαν ηλεκτρονική διεύθυνση (Live URL) του άρθρου.
Updated on by

Reader Interactions

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *