Zephyrnet-Logo

Content-Moderation wird zu einem großen Geschäft mit KI als Hilfeleistung 

Datum:

Die Inhaltsmoderation von Social Media- und Website-Inhalten wird zu einem großen Geschäft, wobei KI im Mittelpunkt einer anspruchsvollen Automatisierungsaufgabe steht.  

Von John P. Desmond, AI Trends Editor  

Die Moderation von Inhalten wird zu einem größeren Geschäft und wird nach Schätzungen von . bis 11.8 ein Volumen von 2027 Milliarden US-Dollar erreichen Transparenz Marktforschung. 

Der Markt wird durch die exponentielle Zunahme von nutzergenerierten Inhalten in Form von Kurzvideos, Memes, GIFs, Live-Audio- und Videoinhalten und Nachrichten angetrieben. Da ein Teil der hochgeladenen Inhalte gefälschte Nachrichten oder bösartige oder gewalttätige Inhalte sind, setzen Social-Media-Sites Armeen von Moderatoren ein, die mit Tools ausgestattet sind, die KI und maschinelles Lernen einsetzen, um unangemessene Inhalte herauszufiltern. 

Laut einem kürzlich veröffentlichten Bericht in Die New York Times, basierend auf umfangreichen Recherchen zur Geschichte der Content-Moderation beim Social-Media-Riesen.  

Julie Sweet, CEO, Accenture

Das Schadenkalkulation berichtete, dass Accenture-CEO Julie Sweet nach ihrer Ernennung im Jahr 2019 eine Vertragsüberprüfung angeordnet habe, aus Sorge um damals als wachsende ethische und rechtliche Risiken, die dem Ruf des multinationalen Dienstleistungsunternehmens schaden könnten.  

Sweet ordnete die Überprüfung an, nachdem sich ein Accenture-Mitarbeiter einer Sammelklage angeschlossen hatte, um gegen die Arbeitsbedingungen von Content-Moderatoren zu protestieren, die Hunderte von Facebook-Posts in einer Schicht überprüfen und infolgedessen an Depressionen, Angstzuständen und Paranoia litten. Die Überprüfung führte zu keiner Änderung; Accenture beschäftigt laut dem Times-Bericht mehr als ein Drittel der 15,000 Mitarbeiter, die Facebook eingestellt hat, um seine Beiträge zu überprüfen.  

Facebook-Chef Mark Zuckerberg hat eine Strategie verfolgt, KI einzusetzen, um die giftigen Posts herauszufiltern; Tausende von Content-Moderatoren werden angeheuert, um unangemessene Nachrichten zu entfernen, die die KI nicht erkennt.   

Cori Crider, Mitbegründer, Fingerhut

Die Content-Moderationsarbeit und das Verhältnis von Accenture und Facebook drumherum sind umstritten. „Du konntest nicht haben Facebook, wie wir es heute ohne Accenture kennen“, sagte Cori Crider, Mitbegründer von Foxglove, einer Anwaltskanzlei, die Content-Moderatoren vertritt, gegenüber der Schadenkalkulation. „Enabler wie Accenture haben es Facebook für atemberaubende Gebühren erlaubt, das menschliche Kernproblem seines Geschäfts auf Distanz zu halten.“ 

Facebook hat seit 10 mindestens 2012 Beratungs- und Personaldienstleister sowie eine Reihe von Subunternehmern beauftragt, seine Beiträge zu filtern Schadenkalkulation berichtet. Die Gehaltssätze variieren, wobei US-Moderatoren 50 US-Dollar oder mehr pro Stunde für Accenture verdienen, während Moderatoren in einigen US-Städten ab 18 US-Dollar pro Stunde verdienen Schadenkalkulation gemeldet. 

Einblicke von einem erfahrenen Content-Moderator  

Die KI fängt etwa 90% der unangemessenen Inhalte ab. Ein Anbieter von Content-Moderationssystemen ist Appen, mit Sitz in Australien, das mit seinen Kunden an maschinellem Lernen und KI-Systemen arbeitet. In einem kürzlich Blog-Post Auf seiner Website gab Justin Adam, ein Programmmanager, der mehrere Projekte zur Inhaltsmoderation beaufsichtigte, einige Einblicke.   

Die erste besteht darin, die Richtlinien entsprechend der realen Erfahrung zu aktualisieren. „Jede Entscheidung zur Moderation von Inhalten sollte der definierten Richtlinie folgen; Dies erfordert jedoch auch, dass sich die Politik schnell weiterentwickeln muss, um etwaige Lücken, Grauzonen oder Grenzfälle zu schließen, wenn sie auftreten, insbesondere bei sensiblen Themen“, so Adam. Er empfahl, marktspezifische Inhaltstrends zu beobachten, um politische Lücken zu identifizieren.  

Zweitens sollten Sie sich der möglichen demografischen Verzerrung der Moderatoren bewusst sein. „Die Moderation von Inhalten ist am effektivsten, zuverlässigsten und vertrauenswürdigsten, wenn der Moderatorenpool repräsentativ für die allgemeine Bevölkerung des moderierten Marktes ist“, sagte er. Er empfahl, je nach Bedarf eine heterogene Gruppe von Moderatoren zu beauftragen.    

Drittens: Entwickeln Sie eine Content-Management-Strategie und verfügen Sie über Expertenressourcen, um diese zu unterstützen. „Entscheidungen zur Moderation von Inhalten sind im heutigen politischen Klima anfällig für Überprüfungen“, sagte Adam. Seine Firma bietet Dienstleistungen an, um Kunden dabei zu helfen, ein Team mit geschulter Erfahrung in Politikthemen einzustellen, Qualitätskontrollprüfungen zu erstellen und Qualitätsanalysen und -berichte zuzuschneiden.   

Techniken zur automatisierten Inhaltsmoderation mit KI  

Die häufigste Art der Inhaltsmoderation ist ein automatisierter Ansatz, der laut a . KI, natürliche Sprachverarbeitung und Computer Vision verwendet Blog-Post von Clarifai, einem in New York City ansässigen KI-Unternehmen, das sich auf Computer Vision, maschinelles Lernen und die Analyse von Bildern und Videos spezialisiert hat.   

KI-Modelle werden erstellt, um Inhalte zu überprüfen und zu filtern. „Unangemessene Inhalte können markiert und verhindert werden, dass sie fast sofort veröffentlicht werden“, um die Arbeit des menschlichen Moderators zu unterstützen, schlug das Unternehmen vor.  

Techniken für die Inhaltsmoderation umfassen Bildmoderation die Textklassifizierung und computergestützte visuelle Suchtechniken verwendet. Die Objektzeichenerkennung kann Text in einem Bild erkennen und auch moderieren. Die Filter suchen in allen Arten von unstrukturierten Daten nach beleidigenden oder anstößigen Wörtern, Objekten und Körperteilen. Als unangemessen gekennzeichnete Inhalte können zur manuellen Moderation gesendet werden.  

Eine andere Technik, für Videomoderation, erfordert, dass das Video Bild für Bild angeschaut wird und auch der Ton gescreent wird. Zum Textmoderation, werden natürliche Sprachverarbeitungsalgorithmen verwendet, um die Bedeutung des Textes zusammenzufassen oder die Emotionen im Text zu verstehen. Mithilfe der Textklassifizierung können Kategorien zugewiesen werden, um den Text oder die Stimmung zu analysieren.    

Die Stimmungsanalyse identifiziert den Ton des Textes und kann ihn beispielsweise als Wut, Mobbing oder Sarkasmus kategorisieren und ihn dann als positiv, negativ oder neutral kennzeichnen. Die Technik zur Erkennung benannter Entitäten findet und extrahiert Namen, Standorte und Unternehmen. Unternehmen verwenden es, um zu verfolgen, wie oft ihre Marke oder die Marke eines Konkurrenten erwähnt wird oder wie viele Personen aus einer Stadt oder einem Bundesstaat Bewertungen abgeben. Fortgeschrittenere Techniken können sich auf eingebaute Datenbanken verlassen, um Vorhersagen darüber zu treffen, ob der Text angemessen ist, gefälschte Nachrichten oder ein Betrug ist.  

Ohne Zweifel wird KI in der Online-Content-Moderation benötigt, um Erfolg zu haben. „Die Realität ist, dass es für menschliche Moderatoren einfach zu viel UGC gibt, um mitzuhalten, und Unternehmen stehen vor der Herausforderung, sie effektiv zu unterstützen“, heißt es in der Clarifai-Post. 

Einschränkungen automatisierter Content-Management-Tools  

Zu den Einschränkungen automatisierter Tools zur Inhaltsmoderation gehören Genauigkeit und Zuverlässigkeit bei extremistischen oder hasserfüllten Inhalten aufgrund nuancierter Sprachunterschiede in Bezug auf verschiedene Gruppen und Regionen, so ein kürzlich veröffentlichter Bericht von New America, einem Forschungs- und Politikinstitut mit Sitz in Washington, DC. Die Entwicklung umfassender Datensätze für diese Inhaltskategorien wurde als „herausfordernd“ und die Entwicklung eines Werkzeugs, das zuverlässig auf verschiedene Gruppen und Regionen angewendet werden kann, als „extrem schwierig“ bezeichnet.  

Darüber hinaus ist die Definition, welche Arten von Sprache in unangemessene Kategorien fallen, nicht klar.   

„Da die menschliche Sprache nicht objektiv ist und der Prozess der Inhaltsmoderation von Natur aus subjektiv ist, sind diese Tools insofern eingeschränkt, als sie die Nuancen und kontextuellen Variationen der menschlichen Sprache nicht verstehen können“, heißt es in dem Beitrag. 

In einem anderen Beispiel könnte ein Bilderkennungstool einen Fall von Nacktheit, wie etwa eine Brust, in einem Inhaltselement identifizieren. Es ist jedoch unwahrscheinlich, dass das Tool feststellen kann, ob der Beitrag Pornografie oder vielleicht Stillen darstellt, was auf vielen Plattformen erlaubt ist.  

Lesen Sie die Quellartikel und Informationen von Transparenz Marktforschungin Die New York Timesin Blog-Post auf der Website von Appen, a Blog-Post auf der Website von Clarifai und ein Konto von New America. 

PlatonAi. Web3 neu erfunden. Datenintelligenz verstärkt.
Klicken Sie hier, um darauf zuzugreifen.

Quelle: https://www.aitrends.com/ethics-and-social-issues/content-moderation-becoming-a-big-business-with-ai-enlisted-to-help/

spot_img

Neueste Intelligenz

spot_img

Chat mit uns

Hallo! Wie kann ich dir helfen?