Zephyrnet-Logo

KI regulieren: Experten erklären, warum es schwierig (aber wichtig) ist, es richtig zu machen

Datum:

Aus gefälschte Fotos über die Verhaftung von Donald Trump durch New Yorker Polizeibeamte an einen Chatbot, der Folgendes beschreibt: sehr lebendiger Informatiker, der auf tragische Weise ums Leben gekommen ist, löst die Fähigkeit der neuen Generation generativer künstlicher Intelligenzsysteme, überzeugende, aber fiktive Texte und Bilder zu erstellen, Alarm wegen Betrug und Fehlinformationen zu Steroiden aus. Tatsächlich forderte eine Gruppe von Forschern im Bereich der künstlichen Intelligenz und Branchenvertretern die Branche am 22. März 2023 dazu auf Weiteres Training pausieren der neuesten KI-Technologien oder, sofern dies nicht der Fall ist, dass die Regierungen „ein Moratorium verhängen“.

Diese Technologien – Bildgeneratoren mögen DALL-E , Zwischendurch und Stable Diffusion , und Textgeneratoren wie Barde, ChatGPT, Chinchilla und Lama – stehen mittlerweile Millionen von Menschen zur Verfügung und erfordern für deren Nutzung keine technischen Kenntnisse.

Angesichts des Potenzials weitreichender Schäden, wenn Technologieunternehmen diese KI-Systeme einführen und in der Öffentlichkeit testen, stehen die politischen Entscheidungsträger vor der Aufgabe, zu entscheiden, ob und wie die neue Technologie reguliert werden soll. Das Gespräch hat drei Experten für Technologiepolitik gebeten, zu erklären, warum die Regulierung von KI eine solche Herausforderung darstellt – und warum es so wichtig ist, sie richtig zu machen.


Menschliche Schwächen und ein bewegliches Ziel

S. Shyam Sundar

Der Grund für die Regulierung der KI liegt nicht darin, dass die Technologie außer Kontrolle geraten ist, sondern darin, dass die menschliche Vorstellungskraft außer Verhältnis steht. Die überschwängliche Berichterstattung in den Medien hat zugenommen irrationale Überzeugungen über die Fähigkeiten und das Bewusstsein der KI. Solche Überzeugungen bauen auf „Automatisierungsverzerrung„oder die Tendenz, unaufmerksam zu sein, wenn Maschinen eine Aufgabe ausführen. Ein Beispiel ist verminderte Wachsamkeit der Piloten wenn ihr Flugzeug mit Autopilot fliegt.

Zahlreiche Studien in meinem Labor haben gezeigt, dass, wenn eine Maschine und nicht ein Mensch als Interaktionsquelle identifiziert wird, dies eine mentale Abkürzung in den Köpfen der Benutzer auslöst, die wir als „Maschinenheuristik.“ Diese Abkürzung ist der Glaube, dass Maschinen genau, objektiv, unvoreingenommen, unfehlbar usw. sind. Es trübt das Urteilsvermögen des Benutzers und führt dazu, dass der Benutzer den Maschinen übermäßig vertraut. Allerdings reicht es nicht aus, Menschen einfach von der Unfehlbarkeit der KI zu überzeugen, denn es ist bekannt, dass Menschen unbewusst Kompetenz annehmen, auch wenn die Technologie dies nicht rechtfertigt.

Untersuchungen haben dies auch gezeigt Menschen behandeln Computer als soziale Wesen wenn die Maschinen auch nur den geringsten Anflug von Menschlichkeit zeigen, etwa in der Verwendung von Konversationssprache. In diesen Fällen wenden Menschen soziale Regeln der menschlichen Interaktion an, wie etwa Höflichkeit und Gegenseitigkeit. Wenn Computer also empfindungsfähig erscheinen, neigen Menschen dazu, ihnen blind zu vertrauen. Es bedarf einer Regulierung, um sicherzustellen, dass KI-Produkte dieses Vertrauen verdienen und es nicht ausnutzen.

KI stellt eine einzigartige Herausforderung dar, da Designer im Gegensatz zu herkömmlichen technischen Systemen nicht sicher sein können, wie sich KI-Systeme verhalten werden. Als ein herkömmliches Automobil das Werk verließ, wussten die Ingenieure genau, wie es funktionieren würde. Aber bei selbstfahrenden Autos können die Ingenieure nie sicher sein, wie sie es schaffen wird in neuartigen Situationen auftreten.

In letzter Zeit wundern sich Tausende Menschen auf der ganzen Welt darüber, was große generative KI-Modelle wie GPT-4 und DALL-E 2 als Reaktion auf ihre Eingaben produzieren. Keiner der an der Entwicklung dieser KI-Modelle beteiligten Ingenieure konnte Ihnen genau sagen, was die Modelle produzieren werden. Erschwerend kommt hinzu, dass sich solche Modelle mit immer mehr Interaktion ändern und weiterentwickeln.

All dies bedeutet, dass viel Potenzial für Aussetzer besteht. Daher hängt viel davon ab, wie KI-Systeme eingesetzt werden und welche Rückgriffsmöglichkeiten bestehen, wenn menschliche Gefühle oder das Wohlergehen verletzt werden. KI ist eher eine Infrastruktur, wie eine Autobahn. Sie können es so gestalten, dass es das menschliche Verhalten im Kollektiv beeinflusst, aber Sie benötigen Mechanismen zur Bekämpfung von Missbräuchen wie Geschwindigkeitsüberschreitungen und unvorhersehbaren Ereignissen wie Unfällen.

KI-Entwickler müssen außerdem außerordentlich kreativ sein, wenn es darum geht, sich Verhaltensweisen des Systems vorzustellen und mögliche Verstöße gegen soziale Standards und Verantwortlichkeiten zu antizipieren. Dies bedeutet, dass ein Bedarf an Regulierungs- oder Governance-Rahmenwerken besteht, die auf regelmäßigen Prüfungen und Überwachung der Ergebnisse und Produkte der KI basieren. Ich glaube jedoch, dass diese Rahmenwerke auch berücksichtigen sollten, dass die Entwickler der Systeme nicht immer für Pannen zur Verantwortung gezogen werden können.


Kombination von „weichen“ und „harten“ Ansätzen

Kason Schmitt

Die Regulierung von KI ist schwierig. Um KI gut zu regulieren, müssen Sie zunächst KI definieren und die erwarteten Risiken und Vorteile der KI verstehen. Die rechtliche Definition von KI ist wichtig, um herauszufinden, was dem Gesetz unterliegt. Da sich die KI-Technologien jedoch noch weiterentwickeln, ist es schwierig, eine stabile rechtliche Definition festzulegen.

Es ist auch wichtig, die Risiken und Vorteile von KI zu verstehen. Gute Vorschriften sollten gleichzeitig den öffentlichen Nutzen maximieren Risiken minimieren. Allerdings sind KI-Anwendungen noch im Entstehen begriffen, sodass es schwierig ist, die künftigen Risiken oder Vorteile zu kennen oder vorherzusagen. Diese Art von Unbekanntem macht neue Technologien wie KI extrem schwierig zu regulieren mit traditionellen Gesetzen und Vorschriften.

Gesetzgeber sind oft zu langsam, um sich anzupassen an das sich schnell verändernde technologische Umfeld anzupassen. Manche Neue Gesetze zum Zeitpunkt ihres Inkrafttretens oder sogar schon veraltet sind eingeführt. Ohne neue Gesetze, Regulierungsbehörden müssen alte Gesetze anwenden Adress neue Probleme. Manchmal führt dies dazu rechtliche Barrieren für soziale Vorteile or Gesetzeslücken für schädliches Verhalten.

"Weiche Gesetze„sind die Alternative zu traditionellen „Hard-Law“-Ansätzen der Gesetzgebung, die darauf abzielen, bestimmte Verstöße zu verhindern. Beim Soft-Law-Ansatz setzt eine private Organisation ein Regeln oder Standards für Branchenmitglieder. Diese können sich schneller ändern als die traditionelle Gesetzgebung. Das macht Soft Laws vielversprechend für neue Technologien, da sie sich schnell an neue Anwendungen und Risiken anpassen können. Jedoch, Soft Laws können eine sanfte Durchsetzung bedeuten.

Megan Dörr, Jennifer Wagner, und ich schlage einen dritten Weg vor: Copyleft-KI mit Trusted Enforcement (CAITE). Dieser Ansatz kombiniert zwei sehr unterschiedliche Konzepte des geistigen Eigentums – Copyleft-Lizenzierung und Patenttrolle.

Die Copyleft-Lizenzierung ermöglicht die einfache Nutzung, Wiederverwendung oder Änderung von Inhalten im Rahmen einer Lizenz – beispielsweise Open-Source-Software. Das CAITE-Modell verwendet Copyleft-Lizenzen, um von KI-Benutzern die Einhaltung spezifischer ethischer Richtlinien zu verlangen, beispielsweise transparente Bewertungen der Auswirkungen von Voreingenommenheit.

In unserem Modell übertragen diese Lizenzen auch das gesetzliche Recht, Lizenzverstöße durchzusetzen, an einen vertrauenswürdigen Dritten. Dadurch entsteht eine Durchsetzungsstelle, die ausschließlich der Durchsetzung ethischer KI-Standards dient und teilweise durch Bußgelder wegen unethischen Verhaltens finanziert werden kann. Dieses Unternehmen gleicht insofern einem Patenttroll, als es privat und nicht staatlich ist und seinen Lebensunterhalt durch die Durchsetzung der geistigen Eigentumsrechte verdient, die es von anderen einsammelt. In diesem Fall setzt das Unternehmen nicht die Durchsetzung aus Profitgründen durch, sondern die in den Lizenzen festgelegten ethischen Richtlinien – ein „Troll für immer“.

Dieses Modell ist flexibel und anpassbar, um den Anforderungen einer sich ändernden KI-Umgebung gerecht zu werden. Es ermöglicht auch umfangreiche Durchsetzungsoptionen wie eine traditionelle staatliche Regulierungsbehörde. Auf diese Weise werden die besten Elemente von Hard- und Soft-Law-Ansätzen kombiniert, um den einzigartigen Herausforderungen der KI gerecht zu werden.


Vier wichtige Fragen, die Sie stellen sollten

John Villasenor

Das außergewöhnliche jüngste Fortschritte Die modellbasierte generative KI in großen Sprachen löst Forderungen nach einer neuen KI-spezifischen Regulierung aus. Hier sind vier Schlüsselfragen, die Sie im Verlauf des Dialogs stellen sollten:

1) Ist eine neue KI-spezifische Regulierung notwendig? Viele der potenziell problematischen Ergebnisse von KI-Systemen werden bereits durch bestehende Frameworks berücksichtigt. Wenn ein von einer Bank zur Bewertung von Kreditanträgen eingesetzter KI-Algorithmus zu rassistisch diskriminierenden Kreditentscheidungen führt, verstößt das gegen den Fair Housing Act. Wenn die KI-Software in einem selbstfahrenden Auto einen Unfall verursacht, sieht das Produkthaftungsrecht vor Rahmen für die Suche nach Abhilfemaßnahmen.

2) Welche Risiken birgt die Regulierung einer sich schnell verändernden Technologie auf der Grundlage einer Momentaufnahme? Ein klassisches Beispiel hierfür ist die Stored Communications Act, das 1986 erlassen wurde, um damals neuartige digitale Kommunikationstechnologien wie E-Mail anzugehen. Mit der Verabschiedung des SCA sorgte der Kongress für deutlich weniger Datenschutz für E-Mails, die älter als 180 Tage sind.

Die Logik dahinter war, dass begrenzter Speicherplatz dazu führte, dass die Leute ihre Posteingänge ständig aufräumten, indem sie ältere Nachrichten löschten, um Platz für neue zu schaffen. Infolgedessen wurden Nachrichten, die länger als 180 Tage gespeichert waren, aus Datenschutzgründen als weniger wichtig eingestuft. Es ist nicht klar, ob diese Logik jemals Sinn gemacht hat, und sie ergibt sicherlich keinen Sinn in den 2020er Jahren, wenn die Mehrheit unserer E-Mails und anderer gespeicherter digitaler Kommunikation älter als sechs Monate ist.

Eine häufige Antwort auf Bedenken hinsichtlich der Regulierung von Technologie auf der Grundlage einer einzigen Momentaufnahme lautet: Wenn ein Gesetz oder eine Verordnung veraltet ist, aktualisieren Sie sie. Aber das ist leichter gesagt als getan. Die meisten Menschen sind sich einig, dass die SCA schon vor Jahrzehnten veraltet ist. Da sich der Kongress jedoch nicht auf eine konkrete Überarbeitung der 180-Tage-Bestimmung einigen konnte, steht sie über ein Dritteljahrhundert nach ihrem Inkrafttreten immer noch in den Büchern.

3) Was sind die möglichen unbeabsichtigten Folgen? Der Erlauben Sie Staaten und Opfern, das Gesetz gegen den Online-Sexhandel von 2017 zu bekämpfen war ein im Jahr 2018 verabschiedetes Gesetz, das überarbeitet wurde Abschnitt 230 des Communications Decency Act mit dem Ziel, den Sexhandel zu bekämpfen. Es gibt zwar kaum Belege dafür, dass dadurch der Sexhandel zurückgegangen ist, aber es hat sich bewährt äußerst problematische Auswirkungen auf eine andere Gruppe von Menschen: Sexarbeiterinnen, die sich früher auf die von FOSTA-SESTA offline geschalteten Websites verließen, um Informationen über gefährliche Kunden auszutauschen. Dieses Beispiel zeigt, wie wichtig es ist, einen umfassenden Blick auf die potenziellen Auswirkungen vorgeschlagener Vorschriften zu werfen.

4) Welche wirtschaftlichen und geopolitischen Auswirkungen gibt es? Wenn die Regulierungsbehörden in den Vereinigten Staaten den Fortschritt in der KI absichtlich verlangsamen, wird das Investitionen und Innovationen – und die daraus resultierende Schaffung von Arbeitsplätzen – einfach anderswo vorantreiben. Während die neue KI viele Bedenken aufwirft, verspricht sie auch enorme Vorteile in Bereichen wie Bildung, Medizin, Herstellung, Transportsicherheit, Landwirtschaft, Wettervorhersage, Zugang zu juristischen Dienstleistungen, und mehr.

Ich glaube, dass KI-Vorschriften, die unter Berücksichtigung der oben genannten vier Fragen entworfen werden, die potenziellen Schäden der KI mit größerer Wahrscheinlichkeit erfolgreich angehen und gleichzeitig den Zugang zu ihren Vorteilen sicherstellen können.


Dieser Artikel wird erneut veröffentlicht Das Gespräch unter einer Creative Commons-Lizenz. Lies das Original Artikel by S. Shyam Sundar, James P. Jimirro Professor für Medieneffekte, Co-Direktor, Forschungslabor für Medieneffekte und Direktor, Zentrum für sozial verantwortliche KI, Penn State; Kason Schmitt, Assistenzprofessor für öffentliche Gesundheit, Texas A & M Universität und John Villasenor, Professor für Elektrotechnik, Recht, öffentliche Ordnung und Management, University of California, Los Angeles.

spot_img

Neueste Intelligenz

spot_img