Σήμερα, η Meta ανακοίνωσε το Make-A-Video, μια AI γεννήτρια βίντεο που μπορεί να δημιουργήσει νέο περιεχόμενο βίντεο από κείμενο ή εικόνες, παρόμοια με τα υπάρχοντα εργαλεία σύνθεσης εικόνας όπως το DALL-E και το Stable Diffusion. Μπορεί επίσης να κάνει παραλλαγές των υπαρχόντων βίντεο, αν και δεν είναι ακόμη διαθέσιμο για δημόσια χρήση.
Στη σελίδα ανακοινώσεων του Make-A-Video, η Meta εμφανίζει παραδείγματα βίντεο που δημιουργούνται από κείμενο, όπως «ένα νεαρό ζευγάρι που περπατά σε δυνατή βροχή» και «ένα αρκουδάκι που ζωγραφίζει ένα πορτρέτο». Δείχνει επίσης την ικανότητα του Make-A-Video να παίρνει μια στατική εικόνα από την πηγή και να την κάνει να κινείται. Για παράδειγμα, μια ακίνητη φωτογραφία μιας θαλάσσιας χελώνας, αφού υποβληθεί σε επεξεργασία μέσω του μοντέλου AI, μπορεί να φαίνεται ότι κολυμπά.
Δείτε επίσης: Meta: Καταργεί επιχειρήσεις πολιτικής επιρροής από Κίνα και Ρωσία
Η βασική τεχνολογία πίσω από το Make-A-Video είναι ότι βασίζεται στα υπάρχοντα έργα με σύνθεση text-to-image που χρησιμοποιούνται μαζί με γεννήτριες εικόνας όπως το DALL-E του OpenAI. Τον Ιούλιο, η Meta ανακοίνωσε το δικό της μοντέλο AI text-to-image που ονομάζεται Make-A-Scene.
Ένα φεγγάρι που εξαφανίστηκε ίσως διαμόρφωσε τον Άρη
StealC: Κατάχρηση kiosk mode του browser για κλοπή password
Λογισμικό ακουστικών βαρηκοΐας εγκρίθηκε για τα AirPods Pro
Αντί να εκπαιδεύσει το μοντέλο Make-A-Video σε δεδομένα βίντεο με ετικέτες (για παράδειγμα, περιγραφές υπότιτλων των ενεργειών που απεικονίζονται), η Meta πήρε δεδομένα σύνθεσης εικόνων (στατικές εικόνες με λεζάντες) και εφάρμοσε δεδομένα βίντεο χωρίς ετικέτες για εκπαίδευση, ώστε το μοντέλο να αποκτήσει αίσθηση σχετικά με το πού μπορεί να υπάρχει ένα κείμενο ή εικόνα στο χρόνο και στο χώρο. Στη συνέχεια, μπορεί να προβλέψει ποιο είναι το frame που θα ακολουθήσει μετά στην εικόνα και να εμφανίσει τη σκηνή σε κίνηση για σύντομο χρονικό διάστημα.
«Χρησιμοποιώντας μετασχηματισμούς που διατηρούν τις συναρτήσεις, επεκτείνουμε τα επίπεδα στο στάδιο της προετοιμασίας του μοντέλου για να συμπεριλάβουμε προσωρινές πληροφορίες», ανέφερε η Meta. «Το εκτεταμένο χωροχρονικό δίκτυο περιλαμβάνει νέες ενότητες που έχουν να κάνουν με την προσοχή και μαθαίνουν τη χρονική δυναμική του κόσμου από μια συλλογή βίντεο.»
Η Meta δεν έχει κάνει κάποια ανακοίνωση σχετικά με το πώς και πότε το Make-A-Video μπορεί να γίνει διαθέσιμο στο κοινό ή ποιος θα έχει πρόσβαση σε αυτό. Η Meta παρέχει μια φόρμα εγγραφής που μπορούν να συμπληρώσουν οι άνθρωποι εάν ενδιαφέρονται να το δοκιμάσουν στο μέλλον.
Δείτε επίσης: Facebook: Πώς να αποκρύψετε τα γενέθλιά σας;
Η Meta αναγνωρίζει ότι η δυνατότητα δημιουργίας φωτορεαλιστικών βίντεο κατά παραγγελία παρουσιάζει ορισμένους κοινωνικούς κινδύνους. Στο κάτω μέρος της σελίδας της ανακοίνωσης, η Meta λέει ότι όλο το περιεχόμενο βίντεο που δημιουργείται από AI από το Make-A-Video περιέχει ένα υδατογράφημα που «βοηθά να διασφαλίσει ότι οι θεατές γνωρίζουν ότι το βίντεο δημιουργήθηκε με AI και δεν είναι τραβηγμένο βίντεο».
Εάν αναλογιστούμε πως λειτουργεί κάτι τέτοιο ιστορικά, τότε μπορούμε να πούμε ότι ενδέχεται να ακολουθήσουν ανταγωνιστικά μοντέλα open source κειμένου σε βίντεο (ορισμένα, όπως το CogVideo, υπάρχουν ήδη), γεγονός που θα μπορούσε να καταστήσει άσχετη τη διασφάλιση του υδατογραφήματος της Meta.
Πηγή: arstechnica.com