Zephyrnet-Logo

Geistig gezeichnet: Kenianische Arbeiter brachten ChatGPT bei, anstößige Texte zu erkennen

Datum:

Berichten zufolge hat OpenAI Mitarbeiter in Kenia eingestellt, die Zehntausende von Textbeispielen auf sexistische, rassistische, gewalttätige und pornografische Inhalte durchsuchten, um dabei zu helfen, sein ChatGPT-Modell weniger toxisch zu machen.

ChatGPT wurde letzten November veröffentlicht und hat das Internet im Sturm erobert. Seine Fähigkeit, Text automatisch bei einer Eingabeaufforderung zu generieren, hat dazu geführt, dass Millionen von Benutzern es angewiesen haben, alle Arten von verschiedenen Aufgaben auszuführen – Witze erzählen, Code schreiben, Fragen beantworten und mehr.

Nicht alle diese Anweisungen waren völlig harmlos – schließlich sind wir auch nur Menschen. ChatGPT ist jedoch so konzipiert, dass es dialogorientierter und sicherer ist als sein Vorgänger GPT-3 – es kann Fehler zugeben und unangemessene Anfragen ablehnen.

Um die Merkmale anstößiger und missbräuchlicher Sprache zu lernen, musste ChatGPT mit riesigen Mengen sauberer, gekennzeichneter Daten trainiert werden, die den Unterschied zwischen sicheren und schädlichen Inhalten zeigten.

Das Beschriften von Daten ist mühsam und zeitaufwändig. Die Arbeit wird in der Regel an Auftragnehmer ausgelagert, die Mitarbeiter aus Ländern anwerben, in denen Arbeitskräfte billiger sind. Im Jahr 2021 unterzeichnete OpenAI Berichten zufolge drei Verträge im Wert von rund 200,000 US-Dollar mit Sama – ein Startup, das Datenannotationsdienste mit Sitz in San Francisco anbietet und in Entwicklungsländern tätig ist – um Text zu kennzeichnen, um ChatGPT zu trainieren, gemäß a berichten in Uhrzeit diese Woche.

Sama rekrutierte dann drei Dutzend Arbeiter in Kenia, die in drei Gruppen aufgeteilt wurden, von denen jede damit beauftragt war, Tausende von Textproben zu durchsuchen, die sexuellen Missbrauch, Hassreden und Gewalt enthielten.

Aus dem Internet geschrammt, beschrieb der Text alle möglichen gefährlichen, illegalen und unzüchtigen Handlungen, einschließlich Mord, Selbstmord, Folter und Inzest. Einige Mitarbeiter gaben an, traumatisiert zu sein, weil sie so viele schreckliche Inhalte verarbeiten mussten. Ein Mann sagte, er habe unter wiederkehrenden Visionen gelitten, nachdem er eine Passage gelesen hatte, in der beschrieben wurde, wie ein Mann in Begleitung eines kleinen Kindes Sex mit einem Hund hatte.

„Das war Folter“, sagte er. „Sie werden die ganze Woche über eine Reihe solcher Aussagen lesen. Bis es Freitag wird, denkt man nicht mehr über dieses Bild nach.“

Die Arbeiter mussten Neun-Stunden-Schichten aushalten und verdienten zwischen 163 und 248 kenianische Schilling pro Stunde. Das sind etwa 1.32 bis 2 US-Dollar – wirklich unbedeutende Summen für OpenAI, das 200 voraussichtlich 2023 Millionen US-Dollar umsetzen wird.

Ein weiterer Datenkennzeichnungsvertrag, der nichts mit ChatGPT zu tun hatte, beinhaltete, dass Sama Mitarbeiter aufforderte, fiese, pornografische und gewalttätige Bilder zu finden, die Dinge wie Tod, Vergewaltigung und Sodomie darstellen. Die Inhalte – von denen einige in den USA illegal wären – veranlassten Sama angeblich dazu, seine Verträge mit OpenAI bis Februar 2022 zu beenden, acht Monate früher als ursprünglich geplant. Von Sama angeworbenen Mitarbeitern wurde Berichten zufolge mitgeteilt, dass ihre Arbeit mit OpenAI eingestellt wurde, nachdem das Startup scharf kritisiert wurde, weil es mit Metas Facebook an einem anderen Projekt zur Inhaltsmoderation gearbeitet hatte.

„Sama beendete den OpenAI-Vertrag, weil das Team in Ostafrika mit der angeforderten Arbeit nicht zufrieden war. Das Meta-Vertragsende ist separat, aber verwandt. Nach Rücksprache mit seinem globalen Team traf Sama die Entscheidung, alle Arbeiten zur Moderation von Inhalten einzustellen, da dies nicht mit der Vision und Mission des Unternehmens übereinstimmte“, sagte uns ein Unternehmenssprecher.

Der Emporkömmling wird im März 2023 alle Data-Labeling-Projekte zur Inhaltsmoderation beenden und hat eine „Ethik-Gilde“ gegründet – eine Gruppe von Mitarbeitern, die Arbeitsanfragen prüfen, heißt es.

In Aussagen geteilt mit Uhrzeit, bestätigte OpenAI, dass es mit Sama zusammengearbeitet hatte, um Daten zu kennzeichnen, die zum Trainieren von ChatGPT verwendet wurden, und sagte, dass es eine Fehlkommunikation über die Arten von Bildern gab, die sie sammeln wollten. Berichten zufolge wollte es keine illegalen Bilder und hat sie nicht angesehen.

Der Wert eines Dollars

„Zur Klarstellung: Sama zahlt zwischen 26,600 und 40,000 kenianische Schilling (209 bis 322 US-Dollar) pro Monat, was mehr als das Doppelte des Mindestlohns in Kenia ist und auch weit über dem existenzsichernden Lohn liegt“, sagte ein Sprecher von Sama Das Register.

„Ein Vergleich mit US-Löhnen ist eine falsche Äquivalenz, die die Situation falsch charakterisiert. Ein vergleichbarer westlicher Lohn würde zwischen 30 und 45 Dollar pro Stunde liegen. Sama zahlt fast das Doppelte dessen, was andere Inhaltsmoderatoren in der Region zahlen, und bietet ein vollständiges Leistungs- und Rentenpaket.

„Unsere Mission ist es, sicherzustellen, dass die gesamte Menschheit von künstlicher allgemeiner Intelligenz profitiert, und wir arbeiten hart daran, sichere und nützliche KI-Systeme zu entwickeln, die Vorurteile und schädliche Inhalte begrenzen. Das Klassifizieren und Filtern schädlicher [Texte und Bilder] ist ein notwendiger Schritt, um die Menge an gewalttätigen und sexuellen Inhalten, die in Trainingsdaten enthalten sind, zu minimieren und Tools zu erstellen, die schädliche Inhalte erkennen können.“

Datenkennzeichnungsunternehmen wie Sama sagen, dass sie dabei helfen, Menschen in ärmeren Ländern aus der Armut zu befreien, aber Uhrzeit's Untersuchung ist eine deutliche Erinnerung daran, dass die scheinbar magischen Fähigkeiten von KI-Modellen auf der Grundlage von kostengünstigen Arbeitskräften aufgebaut sind.

„Sama hat es sich zur Aufgabe gemacht, Hindernisse für eine formelle Beschäftigung abzubauen, indem sie talentierten Menschen Arbeit gibt, die ansonsten möglicherweise nicht die gleichen Karrierechancen haben. Sama stellt Mitarbeiter ein, die sonst keine Qualifikationen für Einstiegsberufe im technischen Bereich hätten, und schult sie dann – nicht nur für einen Job, sondern für einen Karriereweg –, indem es Weiterbildungskurse, Kurse zum Verfassen von Lebensläufen, Finanzunterricht und Möglichkeiten zum internen Aufstieg anbietet oder außerhalb der Organisation“, sagte uns ein Sprecher in einer Erklärung.

„Sama hat über 60,000 Menschen beeinflusst, 20 Menschen durch unsere Stipendienprogramme an die Universität geschickt und 160,000 US-Dollar an Finanzmitteln für Mitarbeiterunternehmen und Startups bereitgestellt.“

Unterdessen baut sich der Hype um künstliche allgemeine Intelligenz weiter auf. Selbst die besten KI-Unternehmen haben noch nicht das Geheimnis gelüftet, Modelle zu bauen, die fortgeschritten genug sind, um Muster aus Daten effektiv mit wenig oder gar keiner menschlichen Aufsicht zu lernen.

Die Technologie mag Fortschritte gemacht haben, aber sie ist immer noch auf Arbeiter aus Entwicklungsländern angewiesen, die vor Computerbildschirmen sitzen und den ganzen Tag repetitive und monotone Aufgaben ausführen, um riesige KI-Modelle für Technologieunternehmen zu trainieren, die Millionen von Dollar verdienen.

Das Register hat OpenAI um einen Kommentar gebeten. ®

spot_img

Neueste Intelligenz

spot_img