Zephyrnet-Logo

Social-Media-Plattformen können Benutzern die Moderation von Inhalten aufbürden

Datum:

Letzten Donnerstag, den 3. März 2022, kündigte Twitter Inc. in einem Blogbeitrag (1). Es würde Hinweise auf potenziell irreführende Tweets für mehr Benutzer auf der Plattform sichtbar machen.

Die Mikroblogging-Plattform startete letztes Jahr das Projekt namens Birdwatch als Experiment, bei dem Benutzer aufgefordert wurden, irreführende Beiträge zu identifizieren und Notizen zu schreiben, um Informationen zur Entlarvung des Inhalts anzubieten, die dann an den ursprünglichen Beitrag angehängt würden.

Wie andere Social-Media-Websites steht Twitter unter starkem Druck, mehr zu tun, um zu verhindern, dass sich falsche Inhalte unter seinen täglich über 217 Millionen aktiven Nutzern verbreiten. Es hat die Notizen, die von über 10 Mitwirkenden im Birdwatch-Pilotprogramm geschrieben wurden, auf einer anderen Website aufbewahrt (2). 

Laut Twitter wird eine kleine Gruppe randomisierter Benutzer auf Twitter US diese Notizen direkt auf Notizen sehen und die Nützlichkeit der Informationen bewerten. 

Im Laufe der Zeit strebt die Social-Media-Site an, das Inhaltsmoderationsprogramm auf zusätzliche Benutzer in weiteren Ländern auszudehnen. 

Darüber hinaus hob Twitter hervor, dass laut seiner Umfrage die Wahrscheinlichkeit, dass Benutzer dem potenziell irreführenden Tweet zustimmen, nachdem sie eine Birdwatch-Notiz darüber gelesen haben, um 20 bis 40 Prozent geringer ist als bei denen, die ihn ohne die Notiz gesehen haben. 

Diese Entwicklung deutet darauf hin, dass Technologieunternehmen, da sie mit mehr regulatorischen Risiken konfrontiert sind, möglicherweise darauf abzielen, diesen mit KI-basierten oder Community-gesteuerten Rankings vorzubeugen, um die Arbeit zu erledigen, die sie nicht leisten können. 

Lesen Sie auch: Neue Richtlinien für indische Social-Media-Influencer

Mehr über Birdwatch

Inhaltsmoderation auf Twitter
Quelle: Twitter

„Indem Menschen dazu befähigt werden, können sie die Nützlichkeit von Tweets bewerten und hilfreichen und informativen Kontext für Menschen aus unterschiedlichen Perspektiven hinzufügen“, sagte Keith Coleman, Vice President of Product, Twitter, in der Ankündigung (3). 

Twitter betonte auch die Bedeutung von Mitwirkenden mit unterschiedlichen Perspektiven, die nicht durch ihre demografischen Merkmale, sondern durch ihre Bewertung früherer Notizen bestimmt werden. Ein Hinweis wird nur dann unter Tweets sichtbar, wenn genügend Mitwirkende aus unterschiedlichen Blickwinkeln ihn als hilfreich bewertet haben. 

Es führt Birdwatch für mehr Benutzer ein, nachdem es auf der Plattform „ermutigende Hinweise darauf gegeben hat, dass Birdwatch für Menschen hilfreich und informativ sein kann“. Mit der Moderation von Crowdsourcing-Inhalten und Faktenchecks von viralen Inhalten fordert Twitter die Benutzer auf, in gutem Glauben zu handeln, um Fehlinformationen auf der Plattform zu bekämpfen. 

Von Twitter veröffentlichte Daten deuten jedoch auf eine geringe Beteiligung hin. 

Eine kürzlich veröffentlichte Analyse von The Washington Post hob hervor, dass Mitwirkende von Birdwatch im Jahr 42 vor der Russland-Ukraine-Krise am 2022. Februar nur 24 Tweets pro Tag gemeldet hätten. Post, die Zahl stieg auf 156 Tweets, sagte die Analyse (4). 

Lesen Sie auch: Die Daten des Standorts Ihres Mobiltelefons sind mehrere Milliarden Dollar wert

Verstärkte Überprüfung der Praktiken der Inhaltsmoderation von Social-Media-Sites inmitten der Kriegskrise

Bei der Diskussion über die Moderation von Inhalten auf Social-Media-Plattformen ist hervorzuheben, dass die jüngsten kriegsbezogenen Fehlinformationen die Überprüfung von Social-Media-Plattformen verstärkt haben. 

Mehrere Birdwatch-Notizen befassten sich letzte Woche mit irreführenden Inhalten im Zusammenhang mit der Russland-Ukraine-Krise. 

Beispielsweise zeigte ein Tweet vom 26. Februar, der über 17 Mal retweetet wurde, das Bild von Paul McCartney, einem britischen Rockstar, der auf einer Bühne vor dem Publikum auf eine ukrainische Flagge schwenkt. 

Eine Notiz, die einem der Tweets auf der Birdwatch-Website beigefügt war, bemerkte, dass das Bild vor 2008 aufgenommen wurde, als McCarthy zu einem „Unabhängigkeitskonzert“ in Kiew auftrat (5). 

TikTok hat auch eine Explosion von konfliktbezogenen Inhalten auf seiner Plattform erlebt (6). Während die meisten Sicherheitsanalysten und Menschen daran gewöhnt sind, 90 % ihrer Kriegsinformationen aus offiziellen Quellen zu erhalten, gingen Millionen zu TikTok, um Inhalte aus den betroffenen Gebieten live zu sehen. 

In den letzten Tagen sind Videos aus der Ukraine auf TikTok mit einer Rate von über 1 Milliarde Aufrufen pro Tag explodiert. Ein Video der Bombenexplosion wurde mehr als 44 Millionen Mal angesehen, bevor die Behörden das Konto des Posters gesperrt hatten. 

Es ist besonders problematisch für eine Plattform wie TikTok, da es die Plattform der Wahl für Benutzer ist, um diesen Krieg zu dokumentieren, angesichts seiner Benutzerfreundlichkeit, sofortigen Befriedigung und seines ruppigen Inhaltsstils. 

Das Ausmaß, in dem es Inhalte verbreitet, macht es jedoch schwierig, es zu kontrollieren. Gefälschte Nachrichten verbreiten sich aufgrund ihrer emotionalen Wirkung sechsmal schneller als legitime Informationen (7). Und TikTok hat durch seine wiederverwendbare Audiofunktion zur Verbreitung falscher Informationen beigetragen, die tatsächliches ukrainisches Kriegsaudio über nicht verwandte Videos wiederverwendet. 

TikTok hat mehr als eine Milliarde Nutzer, und selbst wenn sein Algorithmus 99 % seiner kriegsbezogenen Inhalte herausfiltert, könnten es immer noch mindestens 10 Millionen Menschen sehen. 

Da Social-Media-Plattformen weiter wachsen, könnte ihr Erfolg genauso gut zur Verbreitung von Fehlinformationen genutzt werden. Gleichzeitig fehlen diesen Plattformen jedoch die Ressourcen, um alle Beiträge angemessen zu überwachen. 

Während wir KI-Engines entwickeln, um jeden Aspekt der sozialen Medien zu regulieren, einschließlich der Diagnose der psychischen Gesundheit aus einem einzigen Beitrag (8), hat es seine Grenzen. 

Lesen Sie auch: Social Commerce: Trends, Chancen und Wachstumsstrategien

Warum jetzt? 

Viele Menschen sind bestrebt, Abschnitt 230 des Communications Decency Act zu entfernen oder zu ändern, der Social-Media-Plattformen vor der Haftung für Benutzermaterial schützt, da die inhaltliche Moderation von Desinformationen zu einem wichtigen Anliegen geworden ist (9).

Abschnitt 230 wurde von Sen. Ron Wyden (D-OR) und Rep. Chris Cox (R-CA) entworfen, um Website-Eigentümern zu ermöglichen, ihre Websites ohne rechtliche Konsequenzen zu zensieren. 

Die Regel ist besonders wichtig für Social-Media-Plattformen, gilt aber auch für eine Vielzahl von Websites und Diensten, einschließlich Nachrichtenagenturen mit Kommentarbereichen, wie z ZeitenWeiter. Es wird von der Electronic Frontier Foundation (10).

Sie polarisiert jedoch zunehmend und wird häufig missverstanden. Kritiker behaupten, dass der weitreichende Schutz des Gesetzes es großen Unternehmen ermöglicht, ernsthafte Benutzerschäden zu ignorieren (11). Auf der anderen Seite behaupten einige Gesetzgeber, dass es lediglich „neutrale Plattformen“ schützt, ein Wort, das keine Auswirkungen auf das Gesetz hat (12).

Im Februar brachte ein Senatsausschuss einen umstrittenen EARN IT-Gesetzesentwurf ein, der eine Ausnahme nach Abschnitt 230 für die sexuelle Ausbeutung von Kindern schaffen und die Voraussetzungen für weitere Ausnahmeregelungen schaffen würde, die den Schutz des Gesetzes schwächen würden (13).

Lesen Sie auch: Erregen Sie mit diesen Tipps die Aufmerksamkeit hochkarätiger Gründer, Investoren und Führungskräfte

Mehr zu Abschnitt 230

Die Senatoren des Justizausschusses stimmten nicht gegen die Verabschiedung des Gesetzentwurfs durch den Senat. Trotzdem gem The Washington Post (14) haben zahlreiche Menschen ihre Besorgnis über die potenziellen Risiken des Gesetzentwurfs für die Privatsphäre und die freie Meinungsäußerung geäußert.

Das Ziel des Gesetzentwurfs ist es, „empfohlene Best Practices zu schaffen, die Anbieter von interaktiven Computerdiensten verwenden können, um die sexuelle Ausbeutung von Kindern im Internet zu verhindern, einzudämmen und darauf zu reagieren“. Wenn sich Unternehmen jedoch nicht dafür entscheiden, alles zu scannen, was auf Cloud-basierten Diensten gespeichert ist, einschließlich Nachrichten, Bilder, Online-Backups, und mehr Technologen und Datenschutzgruppen, sind sie besorgt, dass die Maßnahme sie in rechtliche Gefahr bringen wird.

EARN IT würde „den Weg für ein umfassendes neues Überwachungssystem ebnen, das von privaten Organisationen betrieben wird und einige der wichtigsten Datenschutz- und Sicherheitsfunktionen in der von Menschen weltweit verwendeten Technologie verdunkeln würde“, so die Electronic Frontier Foundation, eine digitale Bürgerrechtsorganisation Organisation (15).

Der Befürworter des Gesetzentwurfs, das National Center on Sexual Exploitation, bestritt die Datenschutz- und Sicherheitsansprüche und behauptete, dass Online-Plattformen „ernsthafte Probleme“ hätten, die EARN IT beheben werde.

Die Senatoren Lindsay Graham und Richard Blumenthal stellten EARN IT vor. Wenn Ihnen dieser Name bekannt vorkommt, liegt das daran, dass eine frühere Version des Gesetzes im Jahr 2020 eingeführt wurde, nur um aufgrund weit verbreiteter Meinungsverschiedenheiten zurückgezogen zu werden (16).

Andererseits hat Apple bereits versucht, nach CSAM-Inhalten zu scannen (Empfohlene Lektüre: Was ist NeuralHash? Aufschlüsselung des neuen CSAM-Erkennungstools von Apple). Wie der ursprüngliche EARN IT-Act war auch die CSAM-Scanning-Technologie in Apples iCloud ein riesiger Flop. Nach der Gegenreaktion legte Apple die Pläne auf Eis und versprach, sich mit Wissenschaftlern und Interessengruppen zu beraten. Das EARN-IT-Gesetz hingegen würde Apple zur Hand zwingen.

Die EARN IT-Rechnung wird nun dem Senat zur Abstimmung vorgelegt, aber es ist unklar, ob sie die Stimmen bekommt, die sie braucht, um Gesetz zu werden.

Lesen Sie auch: Konsistente Markenstimme: Nutzen Sie die Rhetorik, um Ihre Social-Media-Marketingkampagnen zu intensivieren

Schlußbemerkungen

Wir glauben, dass Community-gesteuerte Inhaltsmoderations- und Ranking-Systeme wie Birdwatch von Twitter zwar Fehlinformationen verlangsamen können, aber schlechte Akteure sie auch missbrauchen können. 

Selbst wenn Social-Media-Plattformen damit beginnen, KI oder nutzergenerierte Content-Moderationssysteme zu verwenden, werden die Nutzer stärker dafür verantwortlich gemacht, was sie online posten. 

Mit anderen Worten, es könnte eine einfache Möglichkeit für Social-Media-Plattformen sein, eine Möglichkeit für sie, Verantwortung abzulenken und diese anstehende Regulierung zu umgehen.

spot_img

Neueste Intelligenz

spot_img