Λογότυπο Zephyrnet

Μετριοποίηση περιεχομένου Γίνετε μεγάλη επιχείρηση με AI που έχει εγγραφεί στη Βοήθεια 

Ημερομηνία:

Η εποπτεία περιεχομένου των κοινωνικών μέσων μαζικής ενημέρωσης και του περιεχομένου των ιστότοπων γίνεται μια μεγάλη επιχείρηση με την Τεχνητή Νοημοσύνη στο επίκεντρο μιας προκλητικής εργασίας αυτοματοποίησης.  

Από τον John P. Desmond, AI Trends Editor  

Σύμφωνα με εκτιμήσεις από το Διαφάνεια στην έρευνα αγοράς. 

Η αγορά τροφοδοτείται από την εκθετική αύξηση του περιεχομένου που δημιουργείται από τους χρήστες με τη μορφή σύντομων βίντεο, μιμιδιών, GIF, ζωντανού περιεχομένου ήχου και βίντεο και ειδήσεων. Επειδή κάποιο ποσοστό του περιεχομένου που μεταφορτώνεται είναι ψεύτικες ειδήσεις ή κακόβουλο ή βίαιο περιεχόμενο, οι ιστότοποι κοινωνικής δικτύωσης χρησιμοποιούν στρατιωτικούς συντονιστές εξοπλισμένους με εργαλεία που χρησιμοποιούν τεχνητή νοημοσύνη και μηχανική εκμάθηση για να προσπαθήσουν να φιλτράρουν ακατάλληλο περιεχόμενο. 

Το Facebook χρησιμοποίησε την Accenture για να καθαρίσει το περιεχόμενό της, σε μια σύμβαση αξίας 500 εκατομμυρίων δολαρίων ετησίως, σύμφωνα με έναν πρόσφατο λογαριασμό στο Οι Νιου Γιορκ Ταιμς, βασισμένη σε εκτεταμένη έρευνα για την ιστορία του μέτρου περιεχομένου στον κολοσσό των κοινωνικών μέσων μαζικής ενημέρωσης.  

Julie Sweet, CEO, Accenture

Η Φορές ανέφερε ότι η CEO της Accenture Julie Sweet διέταξε την αναθεώρηση της σύμβασης μετά τον διορισμό της το 2019, λόγω ανησυχίας για τους αυξανόμενους ηθικούς και νομικούς κινδύνους που θα μπορούσαν να βλάψουν τη φήμη της πολυεθνικής εταιρείας επαγγελματικών υπηρεσιών.  

Ο Sweet διέταξε την επανεξέταση αφού ένας εργαζόμενος στην Accenture συμμετείχε σε μια αγωγή κατηγορίας για να διαμαρτυρηθεί για τις συνθήκες εργασίας των συντονιστών περιεχομένου, οι οποίοι αναθεωρούν εκατοντάδες δημοσιεύσεις στο Facebook σε βάρδια και έχουν βιώσει κατάθλιψη, άγχος και παράνοια ως αποτέλεσμα. Η επανεξέταση δεν οδήγησε σε καμία αλλαγή. Η Accenture απασχολεί περισσότερο από το ένα τρίτο των 15,000 ατόμων που έχει προσλάβει το Facebook για να επιθεωρήσει τις αναρτήσεις της, σύμφωνα με την έκθεση των Times.  

Ο διευθύνων σύμβουλος του Facebook, Mark Zuckerberg, είχε μια στρατηγική να χρησιμοποιήσει τεχνητή νοημοσύνη για να φιλτράρει τις τοξικές αναρτήσεις. οι χιλιάδες συντονιστές περιεχομένου προσλαμβάνονται για να αφαιρέσουν ακατάλληλα μηνύματα που η AI δεν πιάνει.   

Cori Crider, Συνιδρυτής, Foxglove

Η εργασία μετριασμού περιεχομένου και η σχέση Accenture και Facebook γύρω από αυτήν έχουν γίνει αμφιλεγόμενες. «Δεν θα μπορούσες να έχεις Το Facebook όπως το γνωρίζουμε σήμερα χωρίς Accenture », δήλωσε ο Cori Crider, συνιδρυτής του Foxglove, ενός δικηγορικού γραφείου που εκπροσωπεί συντονιστές περιεχομένου. ΦορέςΤο "Ενεργοποιητές όπως η Accenture, για τέλη που κόβουν τα μάτια, έχουν αφήσει το Facebook να κρατήσει το βασικό ανθρώπινο πρόβλημα της επιχείρησής του σε απόσταση αναπνοής". 

Το Facebook έχει προσλάβει τουλάχιστον 10 εταιρείες συμβούλων και προσωπικού, καθώς και έναν αριθμό υπεργολάβων, για να φιλτράρουν τις δημοσιεύσεις του από το 2012, Φορές αναφερθείΤο Τα ποσοστά αμοιβής ποικίλλουν, με τους Αμερικανούς συντονιστές να παράγουν 50 $ ή περισσότερα ανά ώρα για το Accenture, ενώ οι συντονιστές σε ορισμένες πόλεις των ΗΠΑ λαμβάνουν αρχική αμοιβή 18 $ ανά ώρα, Φορές ανέφερε. 

Πληροφορίες από έμπειρο συντονιστή περιεχομένου  

Το AI συλλαμβάνει περίπου το 90% του ακατάλληλου περιεχομένου. Ένας προμηθευτής συστημάτων εποπτείας περιεχομένου είναι Appen, με έδρα την Αυστραλία, η οποία συνεργάζεται με τους πελάτες της σε μηχανική μάθηση και συστήματα τεχνητής νοημοσύνης. Σε μια πρόσφατη ανάρτηση στον ιστότοπό του, ο Justin Adam, διευθυντής προγράμματος που επιβλέπει διάφορα έργα εποπτείας περιεχομένου, προσέφερε ορισμένες πληροφορίες.   

Το πρώτο είναι να ενημερώσετε τις πολιτικές όπως υπαγορεύει η εμπειρία του πραγματικού κόσμου. «Κάθε απόφαση εποπτείας περιεχομένου πρέπει να ακολουθεί την καθορισμένη πολιτική. Ωστόσο, αυτό απαιτεί επίσης ότι η πολιτική πρέπει να εξελιχθεί γρήγορα για να κλείσει τυχόν κενά, γκρίζες περιοχές ή περιθώρια όταν εμφανίζονται, και ιδιαίτερα για ευαίσθητα θέματα », δήλωσε ο Adam. Συνέστησε την παρακολούθηση των τάσεων περιεχομένου που αφορούν τις αγορές για τον εντοπισμό κενών πολιτικής.  

Δεύτερον, να γνωρίζετε την πιθανή δημογραφική μεροληψία των συντονιστών. "Η εποπτεία περιεχομένου είναι πιο αποτελεσματική, αξιόπιστη και αξιόπιστη όταν η ομάδα των συντονιστών είναι αντιπροσωπευτική του γενικού πληθυσμού της αγοράς που μεσολαβεί", δήλωσε. Συνέστησε να προμηθευτεί μια ποικίλη ομάδα συντονιστών ανάλογα με την περίπτωση.    

Τρίτον, αναπτύξτε μια στρατηγική διαχείρισης περιεχομένου και διαθέστε ειδικούς πόρους για να την υποστηρίξετε. "Οι αποφάσεις εποπτείας περιεχομένου είναι ευαίσθητες στον έλεγχο στο σημερινό πολιτικό κλίμα", δήλωσε ο Adam. Η εταιρεία του προσφέρει υπηρεσίες για να βοηθήσει τους πελάτες να χρησιμοποιήσουν μια ομάδα εκπαιδευμένης εμπειρίας σε θέματα πολιτικής, να καθιερώσουν έλεγχο ποιότητας και να προσαρμόσουν την ανάλυση και την αναφορά ποιότητας.   

Τεχνικές για αυτοματοποιημένη εποπτεία περιεχομένου με AI  

Ο πιο συνηθισμένος τύπος εποπτείας περιεχομένου είναι μια αυτοματοποιημένη προσέγγιση που χρησιμοποιεί AI, επεξεργασία φυσικής γλώσσας και όραση υπολογιστή, σύμφωνα με ανάρτηση από την Clarifai, μια εταιρεία τεχνητής νοημοσύνης με έδρα τη Νέα Υόρκη που ειδικεύεται στην όραση υπολογιστών, την εκμάθηση μηχανών και την ανάλυση εικόνων και βίντεο.   

Τα μοντέλα τεχνητής νοημοσύνης έχουν σχεδιαστεί για να ελέγχουν και να φιλτράρουν περιεχόμενο. "Το ακατάλληλο περιεχόμενο μπορεί να επισημανθεί και να αποτραπεί από την άμεση δημοσίευσή του", για να υποστηρίξει το έργο του συντονιστή, πρότεινε η εταιρεία.  

Οι τεχνικές για τη ρύθμιση του περιεχομένου περιλαμβάνουν μέτρηση εικόνας που χρησιμοποιεί ταξινόμηση κειμένου και τεχνικές οπτικής αναζήτησης με βάση την όραση στον υπολογιστή. Η αναγνώριση χαρακτήρων αντικειμένου μπορεί να προσδιορίσει το κείμενο μέσα σε μια εικόνα και να το μετριάσει επίσης. Τα φίλτρα αναζητούν υβριστικές ή προσβλητικές λέξεις, αντικείμενα και μέρη του σώματος σε όλους τους τύπους μη δομημένων δεδομένων. Το περιεχόμενο που έχει επισημανθεί ως ακατάλληλο μπορεί να σταλεί για μη αυτόματη εποπτεία.  

Μια άλλη τεχνική, για εποπτεία βίντεο, απαιτεί την παρακολούθηση του βίντεο καρέ -καρέ και την προβολή του ήχου επίσης. Για συντονισμός κειμένου, χρησιμοποιούνται αλγόριθμοι επεξεργασίας φυσικής γλώσσας για να συνοψίσουμε το νόημα του κειμένου ή να κατανοήσουμε τα συναισθήματα στο κείμενο. Χρησιμοποιώντας ταξινόμηση κειμένου, μπορούν να ανατεθούν κατηγορίες για να βοηθήσουν στην ανάλυση του κειμένου ή του συναισθήματος.    

Η ανάλυση συναισθημάτων προσδιορίζει τον τόνο του κειμένου και μπορεί να το κατηγοριοποιήσει ως θυμό, εκφοβισμό ή σαρκασμό, για παράδειγμα, και στη συνέχεια να το χαρακτηρίσει ως θετικό, αρνητικό ή ουδέτερο. Η ονομαζόμενη τεχνική αναγνώρισης οντοτήτων βρίσκει και εξάγει ονόματα, τοποθεσίες και εταιρείες. Οι εταιρείες το χρησιμοποιούν για να παρακολουθούν πόσες φορές αναφέρεται η μάρκα του ή το εμπορικό σήμα ενός ανταγωνιστή ή τον αριθμό των ατόμων από μια πόλη ή πολιτεία που δημοσιεύουν κριτικές. Πιο προηγμένες τεχνικές μπορούν να βασίζονται σε ενσωματωμένες βάσεις δεδομένων για να κάνουν προβλέψεις σχετικά με το αν το κείμενο είναι κατάλληλο ή είναι ψεύτικες ειδήσεις ή απάτη.  

Με λίγη αμφιβολία, η τεχνητή νοημοσύνη χρειάζεται με μέτρο διαδικτυακού περιεχομένου για να έχει πιθανότητες επιτυχίας. «Η πραγματικότητα είναι ότι υπάρχει απλώς πάρα πολύ UGC για να συμβαδίσουν οι συντονιστές και οι εταιρείες αντιμετωπίζουν την πρόκληση να τους υποστηρίξουν αποτελεσματικά», αναφέρει η ανάρτηση Clarifai. 

Περιορισμοί των αυτόματων εργαλείων διαχείρισης περιεχομένου  

Οι περιορισμοί των αυτοματοποιημένων εργαλείων εποπτείας περιεχομένου περιλαμβάνουν ακρίβεια και αξιοπιστία όταν το περιεχόμενο είναι εξτρεμιστικό ή ρητορική μίσους, λόγω διαφοροποιημένων παραλλαγών στην ομιλία που σχετίζονται με διαφορετικές ομάδες και περιοχές, σύμφωνα με πρόσφατη έκθεση από Νέα Αμερική, ένα ινστιτούτο έρευνας και πολιτικής με έδρα την Ουάσινγκτον, DC. Η ανάπτυξη ολοκληρωμένων συνόλων δεδομένων για αυτές τις κατηγορίες περιεχομένου ονομάστηκε «πρόκληση» και η ανάπτυξη ενός εργαλείου που μπορεί να εφαρμοστεί αξιόπιστα σε διαφορετικές ομάδες και περιοχές περιγράφεται ως «εξαιρετικά δύσκολη».  

Επιπλέον, οι ορισμοί για το τι είδους ομιλία εμπίπτουν σε ακατάλληλες κατηγορίες δεν είναι σαφείς.   

Επιπλέον, "Επειδή ο ανθρώπινος λόγος δεν είναι αντικειμενικός και η διαδικασία του μετρίου περιεχομένου είναι εγγενώς υποκειμενική, αυτά τα εργαλεία είναι περιορισμένα στο ότι δεν είναι σε θέση να κατανοήσουν τις αποχρώσεις και τις παραλλαγές του περιβάλλοντος που υπάρχουν στον ανθρώπινο λόγο", σύμφωνα με την ανάρτηση. 

Σε ένα άλλο παράδειγμα, ένα εργαλείο αναγνώρισης εικόνας θα μπορούσε να εντοπίσει ένα παράδειγμα γυμνότητας, όπως ένα στήθος, σε ένα κομμάτι περιεχομένου. Ωστόσο, δεν είναι πιθανό ότι το εργαλείο θα μπορούσε να καθορίσει εάν η ανάρτηση απεικονίζει πορνογραφία ή ίσως θηλάζει, κάτι που επιτρέπεται σε πολλές πλατφόρμες.  

Διαβάστε τα άρθρα προέλευσης και τις πληροφορίες από Διαφάνεια στην έρευνα αγοράςin Οι Νιου Γιορκ Ταιμςσε ανάρτηση στην ιστοσελίδα του Appen, α ανάρτηση στην ιστοσελίδα του Clarifai και ένας λογαριασμός από Νέα Αμερική. 

Πλάτωνας. Επανεκτίμησε το Web3. Ενισχυμένη ευφυΐα δεδομένων.
Κάντε κλικ εδώ για πρόσβαση.

Πηγή: https://www.aitrends.com/ethics-and-social-issues/content-moderation-becoming-a-big-business-with-ai-enlisted-to-help/

spot_img

Τελευταία Νοημοσύνη

spot_img

Συνομιλία με μας

Γεια σου! Πώς μπορώ να σε βοηθήσω?