Zephyrnet-Logo

Ethisches KI-Team sagt, dass Bias Bounties algorithmische Fehler schneller aufdecken können

Datum:

Voreingenommenheit in KI-Systemen erweist sich als großer Stolperstein bei den Bemühungen, die Technologie breiter in unsere Gesellschaft zu integrieren. Eine neue Initiative, die Forscher für das Auffinden von Vorurteilen belohnt KI-Systeme könnte helfen das Problem zu lösen.

Die Bemühungen sind den Bug-Prämien nachempfunden, die Softwareunternehmen an Cybersicherheitsexperten zahlen, die sie warnenf potenzielle Sicherheitslücken in ihren Produkten. Die Idee ist nicht neu; „Bias Bounties“ waren zuerst vorgeschlagen von AI Forscher und Unternehmer JB Rubinovitz im Jahr 2018, und verschiedene Organisationen haben bereits solche Herausforderungen durchgeführt.

Aber die neuen Bemühungen zielen darauf ab, ein fortlaufendes Forum für Bias-Bounty-Wettbewerbe zu schaffen, das unabhängig von einer bestimmten Organisation ist. Die sogenannten „Bias Buccaneers“, die sich aus Freiwilligen verschiedener Unternehmen, darunter Twitter, zusammensetzen, planen, regelmäßige Wettbewerbe oder „Meutereien“ zu veranstalten, und starteten Anfang dieses Monats die erste derartige Herausforderung.

"Bug Bounties sind eine Standardpraxis in der Cybersicherheit, die in der algorithmischen Bias-Community noch Fuß fassen muss“, so die Organizer sagen auf ihrer Website. „Während anfängliche einmalige Veranstaltungen Begeisterung für Kopfgelder zeigten, ist Bias Buccaneers die erste gemeinnützige Organisation, die darauf abzielt, fortlaufende Meutereien zu schaffen, mit Technologieunternehmen zusammenzuarbeiten und den Weg für transparente und reproduzierbare Bewertungen von KI-Systemen zu ebnen.“

Dieser erste Wettbewerb zielt darauf ab, Verzerrungen bei Bilderkennungsalgorithmen zu bekämpfen, aber anstatt Menschen dazu zu bringen, auf bestimmte KI-Systeme abzuzielen, der Wettbewerb wird chfordert Forscher auf, Tools zu entwickeln, die voreingenommene Datensätze erkennen können. Die Idee ist, ein maschinelles Lernmodell zu erstellen, das jedes Bild in einem Datensatz mit Hautfarbe, wahrgenommenem Geschlecht und Altersgruppe genau kennzeichnen kann. Das Gewinnspiel endet am 30 und hat einen ersten Preis von 6,000 $, einen zweiten Preis von 4,000 $ und einen dritten Preis von 2,000 $.

Die Herausforderung beruht auf der Tatsache, dass die Quelle der algorithmischen Verzerrung oft nicht so sehr der Algorithmus selbst ist, sondern die Art der Daten, mit denen er trainiert wird. Automatisierte Tools, die schnell beurteilen können, wie ausgewogen eine Sammlung ist of Bilder in Beziehung zu Attributen stehen, die häufig Quellen von Diskriminierung sind, könnten KI-Forschern helfen, eindeutig voreingenommene Datenquellen zu vermeiden.

Die Organisatoren sagen jedoch, dass dies nur der erste Schritt in dem Bemühen ist, ein Toolkit zur Bewertung von Verzerrungen in Datensätzen, Algorithmen und Anwendungen aufzubauen und letztendlich Standards für die Dea zu schaffenl mit algorithmischer Voreingenommenheit, Fairness und Erklärbarkeit.

Es ist nicht der einzige derartige Aufwand. Einer der Anführer des Neuen Initiative ist Rumman Chowdhury von Twitter, der letztes Jahr bei der Organisation des ersten KI-Bias-Bounty-Wettbewerbs mitgewirkt hat, der auf einen Algorithmus abzielt, der von der Plattform zum Zuschneiden von Bildern verwendet wird Benutzer beschwerten sich bevorzugte weiße und männliche Gesichter gegenüber schwarzen und weiblichen.

Die Konkurrenz verschaffte Hackern Zugang zum Unternehmensmodell und forderte sie auf, Fehler darin zu finden. Teilnehmer fand eine ganze Reihe von Problemen, inklVorliebe für stereotyp schöne Gesichter, eine Abneigung gegen Menschen mit weißem Haar (ein Altersmerkmal) und eine Vorliebe für Meme mit englischer statt arabischer Schrift.

Die Stanford University hat kürzlich einen Wettbewerb abgeschlossen, bei dem Teams aufgefordert wurden, Tools zu entwickeln, die Menschen helfen sollen, kommerziell eingesetzte oder Open-Source-KI-Systeme auf Diskriminierung zu prüfen. Und aktuelle und kommende EU-Gesetze könnten Unternehmen dazu verpflichten, ihre Daten und Algorithmen regelmäßig zu prüfen.

Aber nehmen KI-Bug-Bounties und algorithmisches Auditing Mainstream zu etablieren und sie wirksam zu machen, ist leichter gesagt als getan. Unternehmen, die ihre Geschäfte auf ihren Algorithmen aufbauen, werden sich zwangsläufig allen Bemühungen widersetzen, sie zu diskreditieren.

Aufbauend auf Lehren aus Prüfungssystemen in anderen Bereichen, wie Finanzen und Umwelt- und Gesundheitsvorschriften, Forscher kürzlich umrissen einige der entscheidenden Zutaten für eine effektive Rechenschaftspflicht. Eins der wichtigsten Kriterien Sie identifizierten die sinnvolle Einbeziehung unabhängiger Dritter.

Die Forscher wiesen darauf hin, dass aktuelle freiwillige KI-Audits häufig Interessenkonflikte beinhalten, wie z. B. die Zahlung der Zielorganisation für das Audit, die Mitgestaltung des Umfangs des Audits oder die Möglichkeit, die Ergebnisse zu überprüfen, bevor sie veröffentlicht werden. Diese Besorgnis spiegelte sich in einem kürzlich erschienenen Bericht des Algorithmische Gerechtigkeitsliga, diech bemerkte die Übergrößed Rolle der Zielorganisationen in aktuellen Cybersecurity-Bug-Bounty-Programmen.

Einen Weg zu finden, um wirklich unabhängige KI-Prüfer und Fehlerjäger zu finanzieren und zu unterstützen, wird eine große Herausforderung sein, zumal sie gegen einige der am besten ausgestatteten Unternehmen der Welt antreten werden. Glücklicherweise scheint es in der Branche jedoch ein wachsendes Bewusstsein dafür zu geben, dass die Lösung dieses Problems entscheidend sein wird, um das Vertrauen der Benutzer in ihre Dienste aufrechtzuerhalten.

Bild-Kredit: Jakob Rosen / Unsplash

spot_img

VC-Café

LifeSciVC

Neueste Intelligenz

spot_img