ΑρχικήSecurityΗ Google απαγόρευσε deepfake training projects στην υπηρεσία Colab

Η Google απαγόρευσε deepfake training projects στην υπηρεσία Colab

Η Google φαίνεται ότι απαγόρευσε τα deepfake projects και την εκπαίδευση τους, στην υπηρεσία Colaboratory (Colab). Με αυτόν τον τρόπο, η εταιρεία βάζει ένα τέλος στην κατάχρηση των πόρων της πλατφόρμας για αυτόν τον σκοπό.

Google Colab deepfake

Η υπηρεσία Colab της Google είναι ένα online computing resource που επιτρέπει σε ερευνητές να εκτελούν κώδικα Python απευθείας μέσω του προγράμματος περιήγησης, ενώ χρησιμοποιούν δωρεάν computing resources (συμπεριλαμβανομένων των GPU) για να τροφοδοτούν τα projects τους.

Δείτε επίσης: Eργασία από το σπίτι: Οι εργολάβοι της Google δεν έχουν τα ίδια προνόμια με τους υπάλληλους

Λόγω της multi-core φύσης των GPU, η υπηρεσία Colab είναι ιδανική για την εκπαίδευση machine learning projects όπως μοντέλα deepfake ή για την εκτέλεση ανάλυσης δεδομένων.

#secnews #bostondynamics #robodog 

Ο σκύλος ρομπότ Spot της Boston Dynamics παίζει μπάλα. Τα Ρομπότ σκύλοι της Boston Dynamics μαθαίνουν να παίζουν με μπαλάκι, χάρη σε ένα μείγμα τεχνητής νοημοσύνης (AI) και όρασης υπολογιστή, που τα βοηθά να εστιάζουν σε αντικείμενα. Σε μια νέα μελέτη που δημοσιεύτηκε στις 10 Οκτωβρίου στο περιοδικό IEEE Robotics and Automation Letters, οι ερευνητές ανέπτυξαν μια μέθοδο που ονομάζεται "Clio" που επιτρέπει στα ρομπότ να χαρτογραφούν γρήγορα μια σκηνή χρησιμοποιώντας κάμερες στο σώμα τους και να εντοπίζουν τα μέρη που είναι πιο σχετικά με την εργασία τους. 

00:00 Εισαγωγή
00:34 Μέθοδος Clio 
00:57 Boston Dynamics Spot
01:32 Καινοτομία του Clio

Μάθετε περισσότερα: https://www.secnews.gr/627579/skylos-robot-spot-boston-dynamics-paizei-mpala/

Follow us:
Facebook:  https://www.facebook.com/SecNews 
Instagram:  https://www.instagram.com/secnews.gr/  
X (Twitter):   https://twitter.com/Secnews_GR
TikTok:    https://www.tiktok.com/@secnewsgr

#secnews #bostondynamics #robodog

Ο σκύλος ρομπότ Spot της Boston Dynamics παίζει μπάλα. Τα Ρομπότ σκύλοι της Boston Dynamics μαθαίνουν να παίζουν με μπαλάκι, χάρη σε ένα μείγμα τεχνητής νοημοσύνης (AI) και όρασης υπολογιστή, που τα βοηθά να εστιάζουν σε αντικείμενα. Σε μια νέα μελέτη που δημοσιεύτηκε στις 10 Οκτωβρίου στο περιοδικό IEEE Robotics and Automation Letters, οι ερευνητές ανέπτυξαν μια μέθοδο που ονομάζεται "Clio" που επιτρέπει στα ρομπότ να χαρτογραφούν γρήγορα μια σκηνή χρησιμοποιώντας κάμερες στο σώμα τους και να εντοπίζουν τα μέρη που είναι πιο σχετικά με την εργασία τους.

00:00 Εισαγωγή
00:34 Μέθοδος Clio
00:57 Boston Dynamics Spot
01:32 Καινοτομία του Clio

Μάθετε περισσότερα: https://www.secnews.gr/627579/skylos-robot-spot-boston-dynamics-paizei-mpala/

Follow us:
Facebook: https://www.facebook.com/SecNews
Instagram: https://www.instagram.com/secnews.gr/
X (Twitter): https://twitter.com/Secnews_GR
TikTok: https://www.tiktok.com/@secnewsgr

0

YouTube Video VVVDWG45SzRBbWhLQjFZMjNHbjY5YWV3Llhhazl0LU9ya29J

Ο σκύλος ρομπότ Spot της Boston Dynamics παίζει μπάλα

SecNewsTV 19 hours ago

Τα Deepfakes μπορούν να εκπαιδευτούν για να αλλάζουν πρόσωπα και φωνές σε ένα βίντεο. Η τεχνολογία βοηθά στην προσθήκη ρεαλιστικών εκφράσεων προσώπου και κινήσεων για να φαίνεται το αποτέλεσμα πιο γνήσιο. Αυτό σημαίνει ότι κάποιος θα μπορούσε να εκμεταλλευτεί αυτή την τεχνολογία για να δημιουργήσει ένα ψεύτικο βίντεο που δείχνει ένα άτομο να μιλά, χωρίς αυτό να συμβαίνει στην πραγματικότητα.

Τέτοιου είδους βίντεο έχουν χρησιμοποιηθεί πολλές φορές για την προώθηση crypto scams, για τη διάδοση ψεύτικων ειδήσεων, τη δημιουργία revenge porn ή απλά για διασκέδαση. Ωστόσο, η έλλειψη ηθικών περιορισμών στη χρήση τους έχει προκαλέσει μεγάλη ανησυχία.

Δείτε επίσης: Google Drive: Λαμβάνει shortcuts copy/paste

Google: Απαγορεύει το deepfake training στην υπηρεσία Colab

Με βάση τα δεδομένα του archive.org, η Google απαγόρευσε τα deepfake projects στο Colab νωρίτερα αυτόν το μήνα, βάζοντάς τα στη λίστα των μη επιτρεπόμενων projects.

Όπως σημειώνεται στο Discord από τον DFL developer «chervonij», όσοι επιχειρούν να εκπαιδεύσουν deepfakes στην πλατφόρμα Colab αυτή τη στιγμή, βλέπουν το ακόλουθο μήνυμα:

Μπορεί να εκτελείτε κώδικα που δεν επιτρέπεται και αυτό μπορεί να περιορίσει τη δυνατότητά σας να χρησιμοποιείτε το Colab στο μέλλον. Δείτε τις απαγορευμένες ενέργειες που καθορίζονται στις Συχνές Ερωτήσεις μας“.

Αυτή η ενέργεια της Google θα έχει σίγουρα σημαντικές επιπτώσεις στον κόσμο του deepfake, καθώς πολλοί χρήστες χρησιμοποιούν προ-εκπαιδευμένα μοντέλα με το Colab, για να ξεκινήσουν τα high-resolution projects τους. Μέχρι τώρα, η υπηρεσία Colab της Google έκανε αυτή τη διαδικασία πολύ εύκολη ακόμα και για όσους δεν είχαν γνώσεις coding.

Google: Τέρμα στην κατάχρηση πόρων

Δεν είναι γνωστό εάν η Google απαγόρευσε τα deepfake στο Colab λόγω ηθικών ανησυχιών ή λόγω της συνεχούς κατάχρησης των δωρεάν computing resources γι’ αυτά τα έργα.

Σύμφωνα με την εταιρεία, το Colab πρέπει να χρησιμοποιείται από ερευνητές που χρειάζονται ενέργεια που κοστίζει πολλές χιλιάδες δολάρια, για να επιτύχουν επιστημονικούς στόχους.

Δείτε επίσης: Πώς να χρησιμοποιήσετε τους χειριστές σύγκρισης στα Φύλλα Google

Υπάρχουν, όμως, πολλές αναφορές ότι ορισμένοι χρήστες εκμεταλλεύονται το free tier της πλατφόρμας για να δημιουργήσουν deepfake models σε μεγάλη κλίμακα. Αυτό αιχμαλώτισε ένα σημαντικό ποσό των διαθέσιμων πόρων της Colab, για εκτεταμένες περιόδους.

Στη λίστα με τα μη επιτρεπόμενα projects ανήκουν τα παρακάτω:

  • φιλοξενία αρχείων, προβολή πολυμέσων ή άλλες προσφορές υπηρεσιών web που δεν σχετίζονται με το interactive computing με το Colab
  • χρήση remote desktop ή SSH
  • λήψη torrent ή συμμετοχή σε peer-to-peer file-sharing
  • σύνδεση σε remote proxies
  • cryptocurrency mining
  • password cracking
  • εκτέλεση denial-of-service επιθέσεων
  • χρήση πολλών λογαριασμών για την αντιμετώπιση περιορισμών πρόσβασης ή χρήσης πόρων
  • δημιουργία deepfakes

Πηγή: www.bleepingcomputer.com

Digital Fortress
Digital Fortresshttps://www.secnews.gr
Pursue Your Dreams & Live!
spot_img

Εγγραφή στο Newsletter

* indicates required

FOLLOW US

LIVE NEWS