Zephyrnet-Logo

Wir brauchen Regulierung, um die Menschheit vor der KI zu retten … und um die KI-Bestände zu retten – CryptoInfoNet

Datum:

Als künstliche Intelligenz (AI) Entwicklungen rücken die Technologie in den Mittelpunkt, Investoren wittern natürlich Chancen in der Luft. Sie riechen auch die frisch gedruckten Formulare und den bürokratischen Aufwand der Regulierungsbehörde, die nur darauf wartet, ihren Teil zu übernehmen und die brüllende Maschine der KI-Innovation zu behindern. Aber für diejenigen, die befürchten, dass Uncle Sam die Branche durch neue Vorschriften und Beschränkungen zerschlagen könnte, würde ich sagen, dass hier genau das Gegenteil der Fall ist: Vorschriften können die Branche vor sich selbst retten. Darüber hinaus schützen mehr Vorschriften für die Branche die Anleger, statt ihnen zu schaden. 

In den meisten neuen Branchen ist das Wort „Regulierung“ tabu. Nun ist die KI-Branche nicht gerade neu. Das moderne Konzept reicht bis in die 1950er Jahre zurück, und sowohl private als auch öffentliche Investitionen in diesem Bereich haben in den letzten etwa 70 Jahren zu- und abgenommen. In den 1980er und frühen 1990er Jahren gab es eine Boom-and-Bust-Zyklus in Investitionen in künstliche Intelligenz. Investitionen der japanischen Regierung in den 80er Jahren lösten den ersten großen kommerziellen KI-Boom aus. Bis 1993 schlossen jedoch „über 300 Unternehmen ihre Türen“, als die Blase platzte. Allerdings haben moderne Fortschritte bei der Rechenleistung und großen Sprachmodellen (LLMs) der Branche neues Leben eingehaucht, und ihr Potenzial zieht nicht nur Investoren, sondern auch Regulierungsbehörden an.

KI-Vorschriften: Ein Durcheinander von Interessen und Risiken

Die Frage, was „KI-Regulierung“ sein soll oder überhaupt sein kann, beschäftigt Politiker, Entscheidungsträger und Ethiker. Anleger möchten natürlich wissen, was dies für ihre Portfolios bedeuten würde. Was sind die größten Risiken? Und hier können Gesetze und Vorschriften einen gewissen Schutz bieten und dabei helfen, diese Risiken zu bewältigen.

Die größten Risiken für Anleger lassen sich auf drei sich überschneidende Kernanliegen zurückführen: Betrug, Schutz des geistigen Eigentums und Privatsphäre. Natürlich gibt es bereits Gesetze, die alle drei dieser Probleme einzeln behandeln. Das Problem besteht jedoch darin, dass KI eine einzigartig komplizierte Mischung aller drei Risiken darstellt, die ohne klare Rahmenwerke, Gesetze und Vorschriften den Fortschritt der gesamten Branche gefährden.

Die größte Sorge auf dieser Liste für Anleger ist Betrug. Fast alle sind sich einig, dass die Betrugsprävention eine wichtige und lebenswichtige Aufgabe der Regulierung ist.

Betrügerische Drahtreitaffen: Zwei Fallstudien

Zwei Fallstudien zeigen die potenzielle Zukunft der KI-Vorschriften, das Betrugsrisiko und die regulatorischen Zeitrahmen, mit denen Anleger rechnen sollten. Beide veranschaulichen auch, wie Betrug die kommenden Regulierungsmaßnahmen beeinflussen wird.

Die erste ist die Welt der Kryptowährungen und nicht fungiblen Token (NFTs). Krypto ist eine wesentlich neuere Branche als die KI und hat schon viele Aufschwünge und Abstürze und vor allem Betrug erlebt. Die Securities and Exchange Commission (SEC) und die Federal Trade Commission (FTC) haben ein gutes Jahrzehnt damit verbracht, herauszufinden, wie sie Krypto in ihre Regulierungssysteme integrieren können. Der Kongress hat jedoch noch keine explizite kryptobezogene Gesetzgebung verabschiedet einige Versuche.

In dieser Zeit sind zahlreiche Börsen gestiegen und zusammengebrochen. NFTs waren in den Jahren 2021 und 2022 nicht mehr der letzte Schrei 95 % ihres Wertes verlieren, was Milliarden von Dollars von Investoren mit sich reißt. Berüchtigt ist der Zusammenbruch von FTX und dem neuer Versuch von Sam Bankman-Fried handelte es sich um betrügerisch verwendete Gelder in Milliardenhöhe.

Die zweite Fallstudie hier ist die der Cybersicherheit. Anders als bei Kryptowährungen gibt es für die Branche eine ganze Reihe etablierter Kerngesetze. Die ersten beiden „echten“ Cybersicherheitsgesetze waren der Computer Fraud and Abuse Act von 1986 und der Comprehensive Crime Control Act von 1984. Beide stützten sich auf kreative und relativ neue Erkenntnisse über „Kabel“ (wie bei Telegrafendrähten) und Kabelbetrug.

In den darauffolgenden Jahrzehnten hat der Kongress schrittweise Gesetze zu Cyberthemen verabschiedet Gemischte Resultate. Dies hat dazu geführt, dass die Staaten die Lücke schließen. Die Welt der Cybersicherheit ist auch ein Beispiel für eine Branche mit tiefgreifenden, sich überschneidenden Interessen, von denen viele den Risiken und regulatorischen Schwachstellen der Branche der künstlichen Intelligenz nicht unähnlich sind. Einer der bemerkenswertesten Aspekte ist die Privatsphäre. Bedenken hinsichtlich der Privatsphäre des Einzelnen, die häufig mit sozialen Medien und dem Internet der Dinge (IoT) verbunden sind, entstehen auch bei KI-Trainingsmodellen.

Beide Beispiele hier liefern Lehren für die schnell wachsende KI-Branche. Das risikoreiche, lukrative und wenig regulatorische Umfeld der Kryptowelt ist voller Betrug und Instabilität. Cybersicherheit ist eine viel ältere und etablierte Branche, aber das regulatorische Umfeld ist immer noch lückenhaft, insbesondere im Hinblick auf den Datenschutz.

Der aktuelle Stand der KI-Vorschriften

Um eine Vorstellung davon zu bekommen, mit welchen dieser Regulierungspfade Anleger rechnen sollten, werfen wir einen Blick auf das aktuelle Regulierungsumfeld für künstliche Intelligenz.

Beginnend mit der häuslichen Szene, nun ja ... da gibt es nicht viel, zumindest gesetzgeberisch. Präsident Joe Biden hingegen war damit beschäftigt, durch eine freiwillige Zusage und, ganz aktuell, eine bahnbrechende und umfassende Executive Order einen regulatorischen Weg einzuschlagen.

Anfang des Jahres gab das Weiße Haus eine unverbindliche Selbstverpflichtung bekannt „Bewältigen Sie die von KI ausgehenden Risiken.“ Zu den Unterzeichnern dieses Versprechens gehören einige große Namen wie Amazon (NASDAQ:AMZN), Meta-Plattformen (NASDAQ:META), Alphabet (NASDAQ:GOOGNASDAQ:GOOGL) und OpenAI. Das Office of Science and Technology Policy (OSTP), eine Abteilung im Weißen Haus, hat ebenfalls eine veröffentlicht „Blaupause für eine KI-Bill of Rights.“ Ein weiterer besonders freiwilliger Rahmen für eine sichere und ethische KI-Nutzung.

Nach Angaben des Weißen Hauses erfordert eine „sichere und ethische KI-Nutzung“ strenge „Tests vor der Bereitstellung“ und wird unter „Konsultation verschiedener Gemeinschaften, Interessengruppen und Fachexperten erstellt, um Bedenken, Risiken und potenzielle Auswirkungen des Systems zu identifizieren“. KI-Systeme sollten außerdem über eine „unabhängige Bewertung und Berichterstellung“ verfügen, um sicherzustellen, dass sie langfristig sicher bleiben.

Bidens AI Executive Order

In den frühen Morgenstunden des 30. Oktober kündigte das Weiße Haus den umfassendsten Regulierungsvorstoß in Bezug auf KI an. Diese Anstrengung voranzutreiben war ein umfassende Executive Order (und ein schickes neues Website ) deckt alles ab, von Sicherheit bis hin zu Datenschutz, Bürgerrechten und mehr. Diese Executive Order baut auf dem oben genannten freiwilligen Versprechen und der AI Bill of Rights auf und konzentriert sich hauptsächlich auf das, was die meisten Executive Orders bewirken: die Mobilisierung der zahlreichen Abteilungen und Agenturen der Exekutive zum Handeln.

Es müssen noch viele Details darüber geklärt werden, wie sich diese Executive Order auf die Branche auswirken wird, aber die wichtigsten Erkenntnisse für Investoren sind:

1. Es wird eine ganze Weile dauern, bis die Regulierungsbehörden diese neuen Richtlinien und Richtlinien entwickeln.

2. Welche spezifischen Vorschriften auch immer aus dieser EO hervorgehen, werden auf wackligen rechtlichen Grundlagen beruhen, bis der Kongress KI-bezogene Gesetze verabschiedet. Es ist immer noch auf freiwillige Einhaltung angewiesen, mit einer großen Ausnahme: dem Defence Production Act (DPA).

Bidens Berufung auf die DPA ist ebenso bemerkenswert wie verwirrend. Das DPA war das einzige tatsächliche explizite Gesetz, auf das sich die EO bezieht und das einige potenziell schwerwiegende Auswirkungen hatte. Das DPA wurde zuletzt im Zusammenhang mit der Covid-19-Pandemie eingesetzt, wird jedoch typischerweise mit der Produktion während des Krieges in Verbindung gebracht. Biden verwendet es hier in einem rein nationalen Sicherheitskontext:

„… die Verordnung verlangt, dass Unternehmen, die ein Gründungsmodell entwickeln, das eine ernsthafte Gefahr für die nationale Sicherheit, die nationale wirtschaftliche Sicherheit oder die nationale öffentliche Gesundheit und Sicherheit darstellt, die Bundesregierung benachrichtigen müssen, wenn sie das Modell trainieren, und die Ergebnisse aller Red- Team-Sicherheitstests.“

Es ist unklar, wer von diesem von der DPA unterstützten „Überprüfungsprozess“ abgedeckt wird, da andere Behörden spezifischere regulatorische Verantwortlichkeiten haben. Beispielsweise soll das National Institute of Standards and Technology (NIST) KI-Sicherheitsstandards entwickeln und das Department of Homeland Security (DHS) besteht darin, sie für kritische Infrastrukturen umzusetzen. Vielleicht noch wichtiger ist, dass geklärt werden muss, welche Behörde diese Richtlinie überhaupt umsetzen wird.

Es gibt einen bemerkenswerten Kandidaten, den die DPA aufgrund ihrer bestehenden Verteidigungsverträge mit ziemlicher Sicherheit abdecken würde: Palantir (NYSE:PLTR). Der auf Big Data und zunehmend KI ausgerichtete Rüstungskonzern ist kein Unterzeichner des Weißen Hauses freiwilliges Versprechen. Dies könnte eher mit den konservativ-libertären politischen Neigungen des Palantir-Vorsitzenden Peter Thiel und seiner Unterstützung für den ehemaligen Präsidenten Donald Trump zu tun haben als mit einer völligen Ablehnung weiterer Regulierung. Dieses Versäumnis ist jedoch bemerkenswert, da Palantir große Pläne hat „Den gesamten KI-Markt erobern.“

Insgesamt ist der durch Bidens Executive Order festgelegte Regulierungsrahmen bahnbrechend und gibt dem Kongress sozusagen die Möglichkeit, den Rest des Regulierungshauses aufzubauen.

Leider müssen wir möglicherweise noch eine ganze Weile darauf warten, dass der Gesetzgeber mit dem „Betonieren“ beginnt.

Was ist mit dem Kongress?

In der AI Executive Order des Weißen Hauses wird nur zweimal auf den Kongress verwiesen, aber in beiden Fällen wird der Kongress aufgefordert, überparteiliche Gesetze zur KI zu verabschieden (bei einem ging es ausdrücklich um die Verabschiedung eines Datenschutzgesetzes).

Nach Angaben des Brennan Center For Justice hat der Kongress dies getan etwa 60 KI-bezogene Rechnungen in verschiedenen Gremien sitzen.

Zum jetzigen Zeitpunkt hat sich das Repräsentantenhaus jedoch gerade auf einen neuen Sprecher des Repräsentantenhauses geeinigt und hat „größere Fische zu braten“, da eine weitere Frist für den Regierungsstillstand ansteht und ein damit einhergehender Haushaltsstreit bevorsteht. Ganz zu schweigen von den umstrittenen Hilfsgesetzen Israels und der Ukraine und einer Reihe anderer dringenderer Anliegen.

Damit bleiben zwei weitere Quellen für KI-Regulierungen übrig: einzelne US-Bundesstaaten und internationale Akteure. Die erstere Gruppe, die nur aus einer Handvoll der 50 Bundesstaaten des Landes besteht, hat dies getan ein Flickenteppich bestanden der relevanten Gesetze, wobei KI und Verbraucherschutz im Vordergrund stehen. International ist China führend beim Aufbau eines komplexes und fortgeschrittenes Set der KI-Vorschriften. Der umfassende Rechtsrahmen der Europäischen Union, einfach betitelt „KI-Gesetz“ voraussichtlich bis Jahresende finalisiert und verabschiedet sein.

KI-Vorschriften und was die Zukunft bringt

Wo bleibt also diese schnell wachsende, potenziell äußerst disruptive Branche? Wird es den Krypto-Weg zur Regulierung einschlagen, der voller Betrug und Instabilität war? Oder der langsamere, stabilere und dennoch lückenhafte Weg zur Cybersicherheit. Nun, zumindest in den Vereinigten Staaten wird es vorerst wahrscheinlich eine Mischung aus beidem sein.

KI hat das disruptive und gewinnbringende Potenzial, von dem die Kryptoindustrie nur träumen kann. Dennoch verfügt es auch über das Mainstream-Potenzial und den Nutzen, den die Cybersicherheitsbranche bietet. Für Investoren, und um hier nicht zu sensationslüstern zu klingen, für die Menschheit ist das eine riskante Kombination.

Es gibt unzählige potenzielle reale Anwendungen von KI, von der Landwirtschaft über die Verteidigung bis hin zum Finanzwesen und Gesundheitswesen. Ein Krypto-Teppich-Pull könnte Investoren um ihr Geld betrügen, oder ein Hacker könnte Geld von einer Bank stehlen, aber es bestehen Risiken durch KI-Unfälle oder böswilliges Verhalten könnte katastrophal sein.

Die Hypothesen darüber, was schief gehen könnte, sind endlos, da KI immer stärker in den Alltag integriert wird. Aber wir sehen bereits besorgniserregende böswillige Anwendungsfälle für KI. Der jüngste Beginn des Israel-Hamas-Krieges hat zu einer Flut von Fehlinformationen auf Social-Media-Plattformen wie X, ehemals Twitter, geführt. Einige der gefälschten Bilder, die online geteilt werden, werden KI-generiert und oft mit leicht zugänglichen Tools wie Bings Image Generator erstellt. Mit der ständig verbesserten Technologie wird es immer schwieriger, gefälschte Bilder und Videos zu identifizieren.

Wir kämpfen auch gegen Risiken, die einst nur in der Science-Fiction zu finden waren, etwa „Schurken-KIs“. Während ein KI-Speiseplaner versehentlich ein Rezept für Chlorgas vorgeschlagen ist heute einiges Schmunzeln wert, es wäre weitaus weniger humorvoll, wenn es eine KI wäre, die beispielsweise dafür verantwortlich wäre, dass eine große automatisierte Farm versehentlich (oder schlimmer noch, absichtlich) eine Gemüseernte kontaminiert.

Wie das Sprichwort sagt: „Sicherheitsvorschriften sind mit Blut geschrieben.“ Und wir sollten wirklich nicht warten müssen, bis Blut vergossen wurde, bevor wir handeln.

Rechtlich gesehen gibt es bereits ein „Vorschlagshammer“-Verfahren gegen Google, das nach Angaben des Unternehmens dazu führen würde Zerstören Sie das Konzept der generativen KI. Um diesem Schicksal zu entgehen, braucht die Branche klare, durchsetzbare Vorschriften, die sowohl die Öffentlichkeit als auch KI-Unternehmen vor dem rechtlichen Zorn des jeweils anderen schützen können.

Im Interesse der Anleger und im Interesse aller muss die Branche der künstlichen Intelligenz stärker behördlich überwacht werden, bevor etwas schrecklich schief geht. Die neue Executive Order des Weißen Hauses bietet einen sehr umfassenden Rahmen für zahlreiche KI-bezogene Themen und ist ein guter Anfang. Ohne vom Kongress verabschiedete Gesetze, die eine solide Grundlage für die Regulierungsbehörden bieten, werden wir jedoch in einem kryptoähnlichen Durcheinander verwirrter Regulierungsbehörden enden. Dies wird nur zu verwirrten Marktteilnehmern und verwirrten Anlegern führen. Und da das Potenzial der KI so groß und gefährlich ist, sollte sich das niemand wünschen.

Also nein, KI-Vorschriften gibt es nicht "der Feind," wie es im Manifest eines Risikokapitalgebers heißt, aber sie können als Sicherheitsgeländer dienen, die dazu beitragen können, die Branche und Investoren vor enormen Risiken zu schützen.

Was Anleger jetzt tun sollten

Ohne klare Leitplanken sind Investitionen in die Welt der künstlichen Intelligenz ein riskantes Geschäft. Anleger, die sich über die Auswirkungen dieser zusammengewürfelten Vorschriften keine allzu großen Sorgen machen, können riskantere Wetten auf die Vielzahl von Startups abschließen, die versuchen, reich zu werden. Oder auf etablierte, aber regulierungsablehnende Stücke wie Palantir.

Andernfalls wäre es für Anleger besser, zu sehen, welche Unternehmen mit der freiwilligen Zusage des Weißen Hauses „mitspielen“. Oder diejenigen, die sich an die internationalen regulatorischen Änderungen in der EU und China anpassen. Diese Unternehmen betrachten diese neuen Vorschriften wahrscheinlich entweder als etwas, mit dem sie leben können, oder als etwas, das sie zu ihrem Vorteil nutzen können.

So oder so wird der Hammer der Regulierung irgendwann fallen. Es wäre für alle, nicht nur für Investoren, das Beste, wenn der Kurs sinkt, bevor die zweite Hälfte des Sprichworts „Schnell handeln und Dinge kaputt machen“ die KI-Branche ruiniert.

Zum Zeitpunkt der Veröffentlichung hielt Andrew Bush eine LONG-Position in GOOGL- und AMZN-Aktien. Die in diesem Artikel geäußerten Meinungen sind die des Autors und unterliegen den Veröffentlichungsrichtlinien von InvestorPlace.com.

Andrew Bush ist Finanznachrichtenredakteur bei InvestorPlace und verfügt über zwei Abschlüsse in internationalen Angelegenheiten. Er hat im Bildungswesen, im Technologiesektor und als Forschungsanalyst für ein in DC ansässiges, auf nationale Sicherheit ausgerichtetes Beratungsunternehmen gearbeitet.

Quelle Link

#Regulierung #Retten #Menschlichkeit #KI.. #Retten #Aktien

spot_img

Neueste Intelligenz

spot_img