Zephyrnet-Logo

Kann die Wall Street beeinflussen, wie sich KI entwickelt?

Datum:

Künstliche Intelligenz, insbesondere generative KI, verspricht weiterhin enorme Produktivitätssteigerungen für viele Branchen, darunter Banken und Versicherungen.

KI stellt auch viele Herausforderungen dar, was sich in ihrer Neigung zur Halluzination zeigt. Ein weiterer Grund ist das Missbrauchspotenzial. Dies kann auf unbewusste Vorurteile in Datentrainingssätzen zurückzuführen sein, die zu diskriminierenden Ergebnissen für farbige Menschen führen. Es kann auch widerspiegeln, wie genAI-Systeme programmiert sind, wie der jüngste Streit um „aufgeweckte“ Bilder von Päpsten oder anderen historischen Persönlichkeiten zeigt, die als alles andere als weiße Männer erscheinen.

In den extremsten Fällen könnten sich Vermögensverwalter für die Recherche oder sogar den Handel mit Portfolios an KI wenden. Halluzinationen könnten ein Unternehmen ruinieren; Ebenso könnte man versuchen, einer Aufsichtsbehörde zu erklären, warum ein Bot einen Flash-Absturz verursacht hat.

Es ist unwahrscheinlich, dass KI auf so dramatische Weise eingesetzt wird, aber sie kann auf subtilere Weise eingesetzt werden. Tatsächlich ist es das bereits.

Banken, Versicherer und Fintechs nutzen bereits KI-Tools, um Kreditratings zu bewerten oder Policen zu zeichnen. Die Branche läuft Gefahr, einem verärgerten Kunden nicht erklären zu können, warum ihm beispielsweise ein Kredit verweigert wurde.

Die profanere Frage ist, wann KI angewendet werden kann. Beispielsweise kann Software verwendet werden, um die Social-Media-Inhalte einer Person zu analysieren, um deren Geisteszustand zu beurteilen, was zur Preisgestaltung eines Finanzprodukts herangezogen werden könnte. Das wirft viele Fragen auf.

Sollten Unternehmen solche Daten berücksichtigen dürfen? Wenn nicht, welche Alternativen werden sie erkunden, um sich einen Eindruck von einem potenziellen Kunden zu verschaffen? Was ist Privatsphäre und wie wird sie durchgesetzt?

Bitte regulieren

Die natürliche Antwort auf solche Fragen besteht darin, die Regulierungsbehörden einzuschalten. Es ist am besten, ein neutrales Regelwerk zu entwickeln, um die schlimmsten Impulse eines Unternehmens einzudämmen. Es ist auch einfacher, den Regulierungsbehörden die schwere Arbeit zu überlassen – und sich die Freiheit zu behalten, mit den Schultern zu zucken, wenn sie es nicht tun.

Regulierung ist erforderlich, aber reicht sie aus? Vielleicht, aber nur, wenn die Finanzbranche damit zufrieden ist, die Innovation Big Tech und der neuen Generation von KI-Startups zu überlassen.

Wenn es um KI geht, werden die Regulierungsbehörden in der Realität nie mithalten können. Das ist keine schlechte Sache: Wir erwarten, dass Innovationen aus dem Privatsektor kommen. Doch die Natur der KI erschwert die Regulierung.

Erstens gibt es bei den Aufsichtsbehörden nur wenige Leute, die über fundierte Fachkenntnisse im Bereich maschinelles Lernen und andere KI-Tools verfügen, geschweige denn mit genAI.

Zweitens erfordert das Beherrschen riesiger GPU-Anordnungen, Grafikverarbeitungseinheiten, der Backbone-Chips, die KI-Anwendungen antreiben, und der Hardware der Rechenzentren, aus denen die Cloud besteht, um in dieser Welt mithalten zu können.

Zur KI-Branche gehören Start-ups wie OpenAI, Big-Tech-Player wie Microsoft und Meta, Chip-Spezialisten wie Nvidia und Cloud-Anbieter wie AWS. Diese Giganten verfügen über einzigartig große Ressourcen, die die besten Talente anwerben – und die Rechenleistung erwerben, um KI-Systeme zu betreiben.

Solange dies so bleibt, können weder Regulierungsbehörden noch Unternehmen die Agenda bestimmen.

Kaufkraft

Regulierungsbehörden können versuchen, Regeln festzulegen – und das sollten sie auch, denn sie können die Grundnormen gestalten –, aber es wird ihnen schwerfallen, mit den Nuancen umzugehen, wie Banken und andere am Missbrauch von KI-Systemen gehindert werden können.

Es gibt jedoch Alternativen. Eine besteht darin, zurückzublicken, wie Regierungen ihre Innovationsökonomien in den Anfängen unterstützt haben. Beispielsweise verdankt das Silicon Valley einen Großteil seines Erfolgs den massiven Kaufprogrammen der NASA und des US-Militärs in den 1950er und 1960er Jahren.



Ebenso haben nur Regierungen das Potenzial, in den Markt der KI-Infrastruktur einzusteigen und GPUs für ihre eigenen Forschungsprogramme zu kaufen, die mit der Größenordnung von Big Tech mithalten können. Dies ist eine Möglichkeit, durch Beteiligung und Führung Standards zu setzen, anstatt endlos zu versuchen, mit dem Schreiben weiterer Regeln Schritt zu halten.

Was ist mit Finanzdienstleistungen? Bisher gibt es keine Anzeichen dafür, dass Regierungen bereit sind, diese Rolle zu übernehmen, wodurch andere Branchen der Gnade von Big Tech ausgeliefert sind.

Die Lektion ist ähnlich: Die Wall Street muss ein so wichtiger Kunde für Big Tech werden, dass sie Standards für den Umgang mit KI setzen kann.

Das Problem ist die Größe. Nicht einmal ein JP Morgan hat in diesem Bereich das Gewicht, das es mit einem Microsoft aufnehmen kann. Es könnte niemals die Kosten rechtfertigen.

Open-Source-KI

Aber wie sieht es mit der Branche als Gruppe aus? Gibt es für Big Finance – im Verbund mit den führenden Fintechs auf der ganzen Welt – eine Möglichkeit, Ressourcen zu bündeln und ein strategischer Kunde zu werden?

Banken sind es nicht gewohnt, zusammenzuspielen. Ein solcher Ansatz wäre völlig fremd.

Andererseits orientieren sich Banken bei der Entwicklung von Software langsam an Open Source. Sie sind sich bewusst, dass die gemeinsame Nutzung von Code für viele nicht zum Kerngeschäft gehörende Funktionen – als Community-Player statt als proprietärer Eigentümer – zu qualitativ hochwertigerer und widerstandsfähigerer Software führen kann.

Funktioniert Open Source für genAI?

Die Antwort ist unklar. Einige Big Techs in diesem Bereich waren mit ihrer Entwicklung offen, wie zum Beispiel Meta, das es KI-Startups ermöglicht, einige seiner Modelle herunterzuladen und anzupassen.

Industriestandards für Open Source erfordern die Zulassung aller Anwendungsfälle, aber nur wenige genAI-Startups erfüllen diese Kriterien tatsächlich. Die meisten, einschließlich der absurd benannten OpenAI, betreiben einen geschlossenen Laden.

Das liegt daran, dass genAI nicht mit anderen Softwarekategorien vergleichbar ist. Der Quellcode ist nur eine Komponente. Ebenso wichtig sind die Trainingsdaten und die Art und Weise, wie diese Daten kategorisiert werden. Heute besteht in der KI-Branche kein Konsens darüber, was „Open Source“ überhaupt bedeutet.

Hier ist die Öffnung für Finanzinstitute. Banken, Börsen und Datenanbieter verfügen gemeinsam über eine kritische Masse an Daten, von denen viele spezifisch für Kapitalmärkte und Finanzdienstleistungen sind. Wenn es einen Mechanismus zur Aggregation dieser Informationen gäbe, könnte theoretisch eine Grundlage für die gemeinsame Entwicklung von Code und den damit verbundenen Standards geschaffen werden.

Anbieter würden sich jedem Schritt widersetzen, der ihr Geschäft zerstört; Banken und Versicherer sind nicht daran interessiert, in Kerngeschäften zusammenzuarbeiten. Andererseits könnte es Bereiche innerhalb der Finanzdienstleistungen geben, die für die meisten Akteure nicht zum Kerngeschäft gehören und in denen eine Branchenlösung wünschenswert sein könnte. Da fallen mir digitale Identität, Compliance, Reporting und Aspekte des Risikomanagements ein.

DigFin weiß, dass dies eine sehr spekulative Vorstellung ist, die möglicherweise niemals den enormen Aufwand rechtfertigt, der erforderlich wäre, um sie in die Realität umzusetzen. Wie wichtig ist es andererseits für die Finanzindustrie, ihre Zukunft zu gestalten, anstatt passiv darauf zu warten, dass das Silicon Valley dies tut? Hier kehren wir vielleicht zu der Vorstellung zurück, dass die Regierung ein großer Kunde von KI ist. Damit die Regierung in dieser Funktion handeln kann, braucht sie eigene Programme. Die Regulierung von Finanzdienstleistungen im Zeitalter der KI scheint ein guter Anfang zu sein.

spot_img

Neueste Intelligenz

spot_img