Λογότυπο Zephyrnet

Το OpenAI δέχεται κριτική μετά τη συνέντευξη του CTO στον Sora

Ημερομηνία:

Το OpenAI, το επιδραστικό ερευνητικό εργαστήριο τεχνητής νοημοσύνης πίσω από πρωτοποριακά εργαλεία όπως το ChatGPT και το Sora, βρέθηκε σε ζεστό νερό μετά από μια πρόσφατη συνέντευξη με την Chief Technology Officer του, Mira Murati.

Η συνέντευξη, που διεξήχθη από τη δημοσιογράφο της Wall Street Journal, Joanna Stern, επικεντρώθηκε στην τελευταία εικόνα του OpenAI, ή μάλλον βίντεο, σύστημα παραγωγής, Sora.

Οι ανησυχίες επικεντρώνονται γύρω από την πιθανή κατάχρηση έργων που προστατεύονται από πνευματικά δικαιώματα για την εκπαίδευση μοντέλων τεχνητής νοημοσύνης και του έλλειψη διαφάνειας από το OpenAI σχετικά με τις πρακτικές δεδομένων του.

Τα δεδομένα της προπόνησης του Σόρα είναι υπό αμφισβήτηση

Στο επίκεντρο της διαμάχης βρίσκεται το ζήτημα των δεδομένων εκπαίδευσης, τα τεράστια σύνολα δεδομένων που χρησιμοποιούνται για την εκπαίδευση μοντέλων AI.

Όταν ρωτήθηκε σχετικά με τις πηγές δεδομένων που χρησιμοποιήθηκαν για το Sora, ο Murati έδωσε την τυπική απάντηση: το μοντέλο είχε εκπαιδευτεί σε «δημόσια διαθέσιμα και αδειοδοτημένα δεδομένα".

Ωστόσο, η περαιτέρω διερεύνηση αποκάλυψε δισταγμό και αβεβαιότητα από την πλευρά του Murati σχετικά με τις συγκεκριμένες λεπτομέρειες αυτού του συνόλου δεδομένων.

Αυτή η απάντηση έχει υψωμένες κόκκινες σημαίες μεταξύ καλλιτεχνών, φωτογράφων και ειδικών σε θέματα πνευματικής ιδιοκτησίας. Τα συστήματα δημιουργίας εικόνων AI εξαρτώνται σε μεγάλο βαθμό από την πρόσληψη τεράστιων ποσοτήτων εικόνων, πολλές από τις οποίες μπορεί να προστατεύονται από πνευματικά δικαιώματα. Η έλλειψη σαφήνειας σχετικά με τα δεδομένα εκπαίδευσης του Sora εγείρει ερωτήματα σχετικά με το εάν το OpenAI έχει διαφυλάξει επαρκώς τα δικαιώματα των δημιουργών περιεχομένου.

Διαμάχη δεδομένων εκπαίδευσης OpenAI SORA
Η βάση δεδομένων εκπαίδευσης του Sora δεν έχει δημοσιευτεί σε καμία επίσημη πλατφόρμα (Πιστωτικά Εικόνα)

Η χρήση Shutterstock έγινε αποδεκτή αργότερα

Έριξε λάδι στη φωτιά η αρχική άρνηση του Murati να εξετάσει εάν οι εικόνες του Shutterstock αποτελούσαν συστατικό του συνόλου δεδομένων εκπαίδευσης του Sora. Μόνο μετά τη συνέντευξη, σε μια υποσημείωση που προστέθηκε από την Wall Street Journal, ο Murati επιβεβαίωσε τη χρήση της βιβλιοθήκης εικόνων του Shutterstock.

Αυτή η επιβεβαίωση έρχεται σε αντίθεση με τη δημόσια στάση του OpenAI για «δημόσια διαθέσιμα και αδειοδοτημένα δεδομένα» και προτείνει μια προσπάθεια απόκρυψης δυνητικά προβληματικών πρακτικών προμήθειας.

Οι Shutterstock και OpenAI σχημάτισαν ένα εταιρική σχέση παραχώρηση δικαιωμάτων OpenAI για χρήση της βιβλιοθήκης εικόνων του Shutterstock για την εκπαίδευση μοντέλων δημιουργίας εικόνων όπως το DALL-E 2 και ενδεχομένως το Sora.

Σε αντάλλαγμα, οι συνεργάτες του Shutterstock (οι φωτογράφοι και οι καλλιτέχνες των οποίων οι εικόνες βρίσκονται στην πλατφόρμα) λαμβάνουν αποζημίωση όταν η δουλειά τους χρησιμοποιείται για την ανάπτυξη αυτών των μοντέλων AI.

Ένας PR εφιάλτης ξετυλίγεται

Είναι ασφαλές να πούμε ότι οι περισσότεροι άνθρωποι των δημοσίων σχέσεων δεν θα θεωρούσαν αυτή τη συνέντευξη ως αριστούργημα δημοσίων σχέσεων.

Η έλλειψη σαφήνειας του Murati έρχεται σε μια ευαίσθητη στιγμή για το OpenAI, ήδη αντιμετωπίζει μεγάλες αγωγές πνευματικών δικαιωμάτων, συμπεριλαμβανομένου ενός σημαντικού που κατατέθηκε από τους New York Times.

Το κοινό εξετάζει εξονυχιστικά πρακτικές όπως η υποτιθέμενη μυστική χρήση βίντεο YouTube από το OpenAI για εκπαίδευση μοντέλων, καθώς είχε αναφερθεί προηγουμένως από το The Information. Με τα ενδιαφερόμενα μέρη που κυμαίνονται από καλλιτέχνες έως πολιτικούς να απαιτούν λογοδοσία, η αποφυγή του Μουράτι τροφοδοτεί μόνο τη φωτιά.

Η αδιαφανής προσέγγιση του OpenAI αποτυγχάνει θεαματικά, μετατρέποντας τη συνέντευξη του Σόρα σε καταστροφή δημοσίων σχέσεων.

Η διαφάνεια δεν είναι το πιο πολυσυζητημένο θέμα

Αυτό το περιστατικό υπογραμμίζει μια κρίσιμη αλήθεια: η αποκάλυψη της αλήθειας είναι πρωταρχικής σημασίας στον κόσμο της τεχνητής νοημοσύνης. Οι σκοντάφτεις απαντήσεις του OpenAI έχουν υπονομεύσει σοβαρά την εμπιστοσύνη του κοινού και έχουν εντείνει τα ερωτήματα σχετικά με τις ηθικές πρακτικές του. Η διαμάχη Sora αναδεικνύει την αυξανόμενη χορωδία απαιτώντας μεγαλύτερη υπευθυνότητα στον κλάδο της τεχνητής νοημοσύνης.

Η απροθυμία του Murati να αποκαλύψει τις ιδιαιτερότητες των δεδομένων εκπαίδευσης του Sora δυσπιστία και δημιουργεί ένα επικίνδυνο προηγούμενο.

Χωρίς τη σαφήνεια που απαιτούν οι καλλιτέχνες, οι δημιουργοί και το κοινό, οι δεοντολογικές συζητήσεις και οι δυνατότητες για νομικές ενέργειες θα ενταθούν.

Δεν υπάρχουν άγγελοι σε αυτή τη γη

Ενώ μεγάλο μέρος του τρέχοντος ελέγχου εμπίπτει ακριβώς στο OpenAI, είναι σημαντικό να θυμόμαστε δεν είναι ο μόνος παίκτης στο παιχνίδι.

Facebook AI Research's μοντέλο LLaMA και Ο Gemini της Google έχουν επίσης αντιμετωπίσει ισχυρισμούς για προβληματικές πηγές δεδομένων εκπαίδευσης.

Διαμάχη δεδομένων εκπαίδευσης OpenAI SORA
Το θέμα της διαφάνειας στις εξελίξεις της τεχνητής νοημοσύνης βρίσκεται στην ημερήσια διάταξη εδώ και πολύ καιρό (Πιστωτικά Εικόνα)

Αυτό δεν προκαλεί έκπληξη, καθώς Αναφορές επιχειρηματικών προσώπων που ο Μέτα έχει ήδη παραδεχτεί χρησιμοποιώντας αναρτήσεις στο Instagram και στο Facebook να εκπαιδεύσει τα μοντέλα AI της. Επιπροσθέτως, Ο έλεγχος της Google σε τεράστιες περιοχές του Διαδικτύου τους παρέχει απαράμιλλη πρόσβαση σε πιθανά δεδομένα εκπαίδευσης, εγείροντας παρόμοιες ηθικές ανησυχίες σχετικά με τη συγκατάθεση και τα πνευματικά δικαιώματα.

Η κατάσταση με το Sora του OpenAI είναι μόνο ένα κομμάτι από ένα μεγαλύτερο παζλ. Ολόκληρο το πεδίο ανάπτυξης της τεχνητής νοημοσύνης αντιμετωπίζει έλεγχο σχετικά με τις πρακτικές δεδομένων και τις πιθανές ηθικές επιπτώσεις.


Πίστωση επιλεγμένης εικόνας: Freepik.

spot_img

Τελευταία Νοημοσύνη

spot_img