Zephyrnet-logo

We hebben regelgeving nodig om de mensheid te redden van AI… en om AI-aandelen te redden – CryptoInfoNet

Datum:

Als kunstmatige intelligentie (AI) ontwikkelingen de technologie centraal stellen, ruiken investeerders uiteraard kansen in de lucht. Ze ruiken ook de vers gedrukte formulieren en administratieve rompslomp van de toezichthouder die wacht op zijn deel en belemmeren de brullende machine van AI-innovatie. Maar voor degenen die bezorgd zijn dat Uncle Sam de industrie zou kunnen verpletteren door nieuwe regelgeving en beperkingen, zou ik zeggen dat hier precies het tegenovergestelde waar is: regelgeving kan de industrie van zichzelf redden. En in het verlengde daarvan beschermt meer regelgeving voor de sector investeerders, in plaats van ze te schaden. 

In de meeste nieuwe industrieën is het woord ‘regulering’ taboe. Nu is de AI-industrie niet bepaald nieuw. Het moderne concept gaat terug tot de jaren vijftig, en zowel particuliere als publieke investeringen op dit gebied zijn de afgelopen zeventig jaar toegenomen en afgenomen. In de jaren tachtig en begin jaren negentig was er sprake van een boom-en-bust cyclus in investeringen in kunstmatige intelligentie. Investeringen door de Japanse overheid in de jaren tachtig vormden de aanzet tot de eerste grote commerciële AI-boom. In 80 sloten echter “meer dan 1993 bedrijven hun deuren” toen de zeepbel uiteenspatte. Moderne ontwikkelingen op het gebied van rekenkracht en grote taalmodellen (LLM's) hebben de sector echter nieuw leven ingeblazen, en het potentieel ervan trekt niet alleen investeerders aan, maar ook toezichthouders.

AI-regelgeving: een puinhoop van belangen en risico's

De vraag wat ‘AI-regulering’ zou moeten of zelfs kunnen zijn, is een vraag voor politici, beleidsmakers en ethici. Wat beleggers willen weten, is uiteraard wat dit voor hun portefeuilles zou betekenen. Wat zijn de grootste risico’s? En dit is waar wet- en regelgeving enige bescherming kunnen bieden en kunnen helpen deze risico's te beheersen.

De grootste risico's voor beleggers komen voort uit drie overlappende kernproblemen: fraude, bescherming van intellectueel eigendom en privacy. Natuurlijk zijn er al wetten in de boeken die alle drie deze kwesties afzonderlijk behandelen. Het probleem is echter dat AI een unieke, gecompliceerde combinatie van alle drie de risico's vertegenwoordigt die, zonder duidelijke kaders, wetten en regels, de vooruitgang van de hele sector bedreigt.

De meest urgente zorg op die lijst voor beleggers is fraude. Bijna iedereen is het erover eens dat fraudepreventie een belangrijke en vitale rol van regelgeving is.

Frauduleuze draadrijdende apen: twee casestudies

Twee casestudies tonen de potentiële toekomst van AI-regelgeving, het risico op fraude en de wettelijke termijnen die beleggers mogen verwachten. Beide belichamen ook hoe fraude de toekomstige regelgeving zal vormgeven.

De eerste is de wereld van cryptocurrencies en niet-fungibele tokens (NFT's). Crypto is een aanzienlijk nieuwere industrie dan AI en heeft een groot aantal hausses en bustes gekend, en, belangrijker nog, fraude. De Securities and Exchange Commission (SEC) en de Federal Trade Commission (FTC) hebben ruim tien jaar lang geprobeerd uit te vinden hoe ze crypto in hun regelgeving konden inpassen. Het Congres heeft desondanks nog geen expliciete crypto-gerelateerde wetgeving aangenomen enkele pogingen.

In die tijd zijn er talloze uitwisselingen ontstaan ​​en ingestort. NFT's waren van een ware rage in 2021 en 2022 naar verliezen 95% van hun waarde, waardoor miljarden dollars van beleggers met zich meesleuren. Berucht is de ineenstorting van FTX en de recente proef van Sam Bankman-Fried ging om miljarden dollars aan frauduleus gebruikte fondsen.

De tweede casestudy hier is die van cyberbeveiliging. In tegenstelling tot crypto zijn er nogal wat gevestigde kernwetten voor de industrie. De eerste twee ‘echte’ cyberveiligheidswetten waren de Computer Fraud and Abuse Act van 1986 en de Comprehensive Crime Control Act van 1984. Beide waren gebaseerd op creatieve en relatief nieuwe inzichten over ‘draden’ (zoals in telegraafdraden) en draadfraude.

In de decennia daarna heeft het Congres stukje bij beetje wetten over cyberonderwerpen aangenomen gemengde resultaten. Dit heeft ertoe geleid dat staten de speling hebben opgepakt. De cyberbeveiligingswereld is ook een voorbeeld van een industrie met diepgaande, elkaar kruisende belangen, waarvan er vele niet veel verschillen van de risico's en blinde vlekken op het gebied van regelgeving waarmee de kunstmatige-intelligentie-industrie wordt geconfronteerd. Een van de meest opvallende is privacy. Bezorgdheid over de individuele privacy, die vaak wordt geassocieerd met sociale media en het Internet of Things (IoT), ontstaat ook bij AI-trainingsmodellen.

Beide voorbeelden hier bieden lessen voor de snelgroeiende AI-industrie. De risicovolle, hoge belonings- en weinig regelgevingsomgeving van de cryptowereld is vol van fraude en instabiliteit. Cyberbeveiliging is een veel oudere en gevestigde sector, maar de regelgeving is nog steeds fragmentarisch, vooral als het gaat om privacy.

De huidige stand van zaken op het gebied van AI-regelgeving

Laten we, om een ​​idee te krijgen van welke van deze regelgevingstrajecten beleggers zouden moeten verwachten, eens kijken naar het huidige regelgevingsklimaat voor kunstmatige intelligentie.

Te beginnen met de binnenlandse scène, nou… er is niet veel, althans op wetgevend gebied. President Joe Biden daarentegen is druk bezig geweest met het uitstippelen van een regelgevend pad via een vrijwillige belofte en, het meest recent en belangrijker nog, een baanbrekend en ingrijpend Executive Order.

Eerder dit jaar kondigde het Witte Huis een niet-bindende vrijwillige belofte aan “de risico’s van AI beheersen.” Onder de ondertekenaars van deze belofte bevinden zich enkele grote namen zoals Amazon (NASDAQ:AMZN), Metaplatforms (NASDAQ:META), Alfabet (NASDAQ:GOOG, NASDAQ:GOOGL) en Open AI. Het Office of Science and Technology Policy (OSTP), een afdeling binnen het Witte Huis, heeft ook een rapport gepubliceerd "Blauwdruk voor een AI Bill of Rights." Nog een opmerkelijk vrijwillig raamwerk voor veilig en ethisch AI-gebruik.

Volgens het Witte Huis vereist “veilig en ethisch AI-gebruik” rigoureuze “tests vóór de implementatie” en komt het tot stand met “raadpleging van diverse gemeenschappen, belanghebbenden en domeinexperts om zorgen, risico’s en potentiële gevolgen van het systeem te identificeren.” AI-systemen moeten ook ‘onafhankelijke evaluatie en rapportage’ hebben om ervoor te zorgen dat ze op de lange termijn veilig blijven.

Bidens AI-uitvoerend bevel

In de vroege ochtenduren van 30 oktober kondigde het Witte Huis de meest uitgebreide regelgeving met betrekking tot AI aan. Het aandrijven van deze inspanning was een ingrijpende uitvoeringsbeschikking (en een strak nieuw van de) die alles omvat, van veiligheid en beveiliging tot privacy, burgerrechten en meer. Dit Executive Order bouwt voort op de bovengenoemde vrijwillige belofte en de AI Bill of Rights, en richt zich vooral op wat de meeste Executive Orders doen: de vele afdelingen en agentschappen van de uitvoerende macht tot actie mobiliseren.

Er moeten nog veel details worden uitgewerkt over de impact van dit Executive Order op de sector, maar de belangrijkste conclusies voor beleggers zijn:

1. Het zal een hele tijd duren voordat toezichthouders deze nieuwe richtlijnen en beleid ontwikkelen.

2. Welke specifieke regelgeving er ook uit deze EO voortkomt, het zal op wankele juridische gronden berusten totdat het Congres AI-gerelateerde wetten goedkeurt. Het is nog steeds afhankelijk van vrijwillige naleving, met één grote uitzondering: de Defense Production Act (DPA).

Bidens beroep op de DPA is even opmerkelijk als verwarrend. De DPA was de enige daadwerkelijke expliciete wet waarnaar de EO verwijst met enkele potentieel krachtige implicaties. De DPA werd voor het laatst gebruikt in de context van de Covid-19-pandemie, maar wordt doorgaans geassocieerd met productie in oorlogstijd. Biden gebruikt het hier in een puur nationale veiligheidscontext:

“…de Order zal vereisen dat bedrijven die een basismodel ontwikkelen dat een ernstig risico vormt voor de nationale veiligheid, de nationale economische veiligheid of de nationale volksgezondheid en veiligheid, de federale overheid op de hoogte moeten stellen wanneer ze het model trainen, en de resultaten van alle red- teamveiligheidstests.”

Het is onduidelijk wie onder dit door de DPA ondersteunde “beoordelingsproces” valt, aangezien andere instanties meer specifieke regelgevende verantwoordelijkheden hebben. Het National Institute of Standards and Technology (NIST) moet bijvoorbeeld AI-veiligheidsnormen ontwikkelen en het Department of Homeland Security (DHS) is om ze te implementeren voor kritieke infrastructuur. Misschien nog belangrijker is dat er duidelijkheid nodig is over welke instantie dit beleid überhaupt zal implementeren.

Er is één opmerkelijke kandidaat die de DPA vrijwel zeker zou bestrijken vanwege de bestaande defensiecontracten: Palantir (NYSE:PLTR). De Big Data en steeds meer AI-gerichte defensie-aannemer is geen ondertekenaar van het Witte Huis vrijwillige belofte. Dit heeft wellicht meer te maken met de conservatief-libertaire politieke voorkeuren en steun van Palantir-voorzitter Peter Thiel voor voormalig president Donald Trump dan met een regelrechte afwijzing van verdere regulering. Deze omissie is echter opmerkelijk omdat Palantir grote plannen heeft “de hele AI-markt veroveren.”

Alles bij elkaar genomen is het regelgevingskader dat door Biden’s Executive Order is uiteengezet baanbrekend en zet het het Congres ertoe aan om de rest van het regelgevend huis op te bouwen, om zo te zeggen.

Helaas zullen we misschien nog een hele tijd moeten wachten voordat de wetgevers beginnen met het “storten van het beton.”

Hoe zit het met het Congres?

De AI Executive Order van het Witte Huis maakt slechts twee verwijzingen naar het Congres, maar beide zijn oproepen aan het Congres om tweeledige wetten over AI aan te nemen (één ging expliciet over het aannemen van een privacywet).

Volgens het Brennan Center For Justice heeft het Congres dat wel gedaan ongeveer 60 AI-gerelateerde rekeningen zitting in diverse commissies.

Op het moment van schrijven heeft het Huis van Afgevaardigden echter net overeenstemming bereikt over een nieuwe voorzitter van het Huis van Afgevaardigden en heeft het “grotere vissen te bakken” met nog een naderende deadline voor de sluiting van de regering en de daarmee gepaard gaande begrotingsstrijd. Om nog maar te zwijgen van de controversiële hulpwetten voor Israël en Oekraïne en een hele reeks andere urgentere problemen.

Dan blijven er nog twee andere bronnen over voor AI-regelgeving: individuele Amerikaanse staten en internationale actoren. De eerstgenoemde groep, bestaande uit slechts een handvol van de vijftig staten van het land, heeft dat wel gedaan een lappendeken voorbij van relevante wetten, waarbij AI en consumentenprivacy voorop staan. Internationaal loopt China voorop bij het opbouwen van een complexe en geavanceerde set van AI-regelgeving. Het alomvattende regelgevingskader van de Europese Unie, simpelweg getiteld “AI-wet,” zal naar verwachting tegen het einde van het jaar worden afgerond en aangenomen.

AI-regelgeving en wat de toekomst brengt

Dus waar blijft deze snelgroeiende, potentieel zeer ontwrichtende industrie? Zal het de crypto-weg naar regulering volgen, die bol staat van fraude en instabiliteit? Of het langzamere, stabielere maar nog steeds fragmentarische cyberbeveiligingspad. Welnu, voorlopig zal het, althans in de Verenigde Staten, waarschijnlijk een mix van beide zijn.

AI heeft het ontwrichtende en winstgevende potentieel waar de crypto-industrie alleen maar van kan dromen. Toch heeft het ook het reguliere potentieel en nut dat de cyberbeveiligingsindustrie biedt. Voor investeerders, en om niet al te sensationeel te klinken, voor de mensheid is dat een riskante combinatie.

Er zijn talloze potentiële toepassingen van AI in de echte wereld, van landbouw tot defensie tot financiën en gezondheidszorg. Het trekken van een crypto-tapijt zou investeerders van hun geld kunnen bedriegen, of een hacker zou geld van een bank kunnen stelen, maar de risico's van AI-ongelukken of kwaadaardig gedrag zou catastrofaal kunnen zijn.

De hypothesen over wat er mis zou kunnen gaan zijn eindeloos naarmate AI verder wordt geïntegreerd in het dagelijks leven. Maar we zien nu al verontrustende kwaadaardige toepassingen van AI. Het recente begin van de oorlog tussen Israël en Hamas heeft geleid tot een stortvloed aan verkeerde informatie op sociale mediaplatforms zoals X, voorheen Twitter. Sommige nepafbeeldingen die online worden gedeeld, zijn door AI gegenereerd en zijn vaak gemaakt met gemakkelijk toegankelijke tools zoals Bing's Image Generator. Met de steeds betere technologie zal het moeilijker worden om valse afbeeldingen en video’s te identificeren.

We krijgen ook te maken met risico’s die ooit alleen in science fiction te vinden waren, zoals ‘malafide AI’s’. Terwijl een AI-maaltijdplanner per ongeluk een recept voor chloorgas suggereert vandaag de dag de moeite waard is om te grinniken, zou het veel minder humoristisch zijn als het een AI zou zijn die bijvoorbeeld de leiding zou hebben over een grootschalige geautomatiseerde boerderij die per ongeluk (of erger nog, opzettelijk) een groenteoogst besmet.

Zoals het gezegde luidt: “Veiligheidsvoorschriften zijn in bloed geschreven.” En we zouden echt niet moeten wachten tot er bloed is vergoten voordat we actie ondernemen.

Juridisch gezien loopt er al een “voorhamer” van een zaak tegen Google die volgens het bedrijf dat wel zou doen vernietig het concept van generatieve AI. Wat de industrie nodig heeft om dit lot te vermijden zijn duidelijke, afdwingbare regels die zowel het publiek als AI-bedrijven kunnen beschermen tegen elkaars juridische toorn.

In het belang van de investeerders en voor iedereen moet er meer regelgevend toezicht komen op de kunstmatige-intelligentie-industrie voordat er iets vreselijk mis gaat. De nieuwe Executive Order van het Witte Huis biedt een zeer alomvattend raamwerk voor tal van AI-gerelateerde kwesties en is een goed begin. Maar zonder wetten die door het Congres zijn aangenomen en die een solide basis bieden waarop toezichthouders kunnen voortbouwen, zullen we eindigen met een crypto-achtige puinhoop van verwarde toezichthouders. Dit zal alleen maar leiden tot verwarde marktdeelnemers en verwarde investeerders. En omdat het potentieel van AI zo groot en gevaarlijk is, is dat niet iets dat iemand zou willen.

Dus nee, AI-regelgeving is dat niet "de vijand," zoals een durfkapitalist het uitdrukte, maar ze kunnen fungeren als veiligheidsrails die de industrie en investeerders kunnen helpen beschermen tegen enorme risico's.

Wat investeerders nu moeten doen

Zonder duidelijke vangrails is investeren in de wereld van kunstmatige intelligentie een riskante onderneming. Beleggers die zich niet al te veel zorgen maken over de impact van deze afgedankte regelgeving kunnen risicovollere weddenschappen afsluiten op de groep startups die proberen rijk te worden. Of op gevestigde maar reglementaire toneelstukken als Palantir.

Anders zouden beleggers er beter aan doen om te zien welke bedrijven “inspelen” op de vrijwillige belofte van het Witte Huis. Of degenen die zich aanpassen aan de internationale veranderingen in de regelgeving die uit de EU en China komen. Deze bedrijven zien deze nieuwe regelgeving waarschijnlijk als iets waarmee ze kunnen leven of als iets dat ze in hun voordeel kunnen gebruiken.

Hoe het ook zij, de hamer van de regulering zal op een gegeven moment vallen. Het zou het beste zijn voor iedereen, en niet alleen voor investeerders, als de koers zou dalen voordat de tweede helft van de uitdrukking ‘beweeg snel en maak dingen kapot’ de AI-industrie kapot maakt.

Op de publicatiedatum had Andrew Bush een LONG-positie in GOOGL- en AMZN-aandelen. De meningen in dit artikel zijn die van de schrijver, onderworpen aan de InvestorPlace.com Publishing Guidelines.

Andrew Bush is financieel nieuwsredacteur voor InvestorPlace en heeft twee diploma's in Internationale Zaken. Hij heeft gewerkt in het onderwijs, de technologiesector en als onderzoeksanalist voor een in Washington gevestigd nationaal veiligheidsadviesbureau.

bron link

#Regulering #Save #Mensheid #AI.. #Save #Aandelen

spot_img

Laatste intelligentie

spot_img