Zephyrnet-logo

Kan Wall Street invloed uitoefenen op de manier waarop AI zich ontwikkelt?

Datum:

Kunstmatige intelligentie, met name generatieve AI, blijft een enorme productiviteitsverbetering beloven voor veel sectoren, waaronder het bank- en verzekeringswezen.

AI brengt ook veel uitdagingen met zich mee, zoals blijkt uit de neiging ervan om te hallucineren. Een andere is de mogelijkheid van misbruik. Dit kan voortkomen uit onbewuste vooroordelen in datatrainingsets, die resulteren in discriminerende resultaten voor gekleurde mensen. Het kan ook een weerspiegeling zijn van de manier waarop genAI-systemen zijn geprogrammeerd, zoals blijkt uit de recente onrust over ‘wakkere’ beelden van pausen of andere historische figuren die allesbehalve blanke mannen lijken.

In de meest extreme gevallen zouden vermogensbeheerders zich tot AI kunnen wenden voor onderzoek of zelfs voor het verhandelen van portefeuilles. Hallucinaties kunnen een bedrijf ruïneren; net als proberen aan een toezichthouder uit te leggen waarom een ​​bot een flash-crash veroorzaakte.

Het is onwaarschijnlijk dat AI op zo'n dramatische manier zal worden ontketend, maar het kan op subtielere manieren worden ingezet. In feite is dat al zo.

Banken, verzekeraars en fintechs maken al gebruik van AI-instrumenten om kredietbeoordelingen te scoren of polissen te onderschrijven. De sector loopt het risico dat hij een ontevreden klant niet kan uitleggen waarom hem bijvoorbeeld een lening is geweigerd.

De meer alledaagse kwestie is wanneer AI kan worden toegepast. Software kan bijvoorbeeld worden gebruikt om iemands sociale media-output te analyseren om zijn of haar mentale toestand te beoordelen, wat kan worden gebruikt om een ​​financieel product te prijzen. Dit roept veel vragen op.

Moeten bedrijven dergelijke gegevens in aanmerking nemen? Zo niet, welke alternatieven zullen zij onderzoeken om een ​​beeld te krijgen van een potentiële klant? Wat is privacy en hoe wordt deze gehandhaafd?

Reguleren, alstublieft

Het natuurlijke antwoord op dergelijke vragen is het inschakelen van de toezichthouders. Het is het beste om een ​​neutraal stel regels te ontwikkelen om de ergste impulsen van een bedrijf te beteugelen. Het is ook gemakkelijker om de toezichthouders het zware werk te laten doen – en de vrijheid te behouden om hun schouders op te halen als ze dat niet doen.

Regelgeving is nodig, maar is dat voldoende? Misschien, maar alleen als de financiële sector er genoegen mee neemt de innovatie over te laten aan Big Tech en het nieuwe soort AI-startups.

Als het om AI gaat, is de realiteit dat toezichthouders nooit gelijke tred zullen kunnen houden. Dat is niet erg: we verwachten dat innovatie uit de private sector komt. Maar de aard van AI maakt regulering lastig.

Ten eerste werken er weinig mensen bij toezichthouders die diepgaande expertise hebben op het gebied van machinaal leren en andere AI-tools, laat staan ​​genAI.

Ten tweede vereist het bijhouden van deze wereld het beheersen van enorme reeksen GPU’s, grafische verwerkingseenheden, de backbone-chips die AI-applicaties aandrijven, en de hardware van datacenters die de cloud vormen.

De AI-industrie omvat startups als OpenAI, Big Tech-spelers als Microsoft en Meta, chipspecialisten als Nvidia en cloudproviders als AWS. Deze reuzen beschikken over unieke, enorme middelen die het beste talent bijeenbrengen – en de rekenkracht kopen om AI-systemen te laten draaien.

Noch toezichthouders, noch ondernemingen kunnen de agenda bepalen zolang dit het geval blijft.

Koopkracht

Toezichthoudende instanties kunnen proberen regels op te stellen – en dat zouden ze ook moeten doen, omdat ze de basisnormen vorm kunnen geven – maar ze zullen moeite hebben om om te gaan met de nuances van hoe ze kunnen voorkomen dat banken en anderen misbruik maken van AI-systemen.

Er zijn echter alternatieven. Eén daarvan is terugkijken op de manier waarop overheden hun innovatie-economieën in de beginperiode hebben helpen ondersteunen. Silicon Valley heeft bijvoorbeeld veel van zijn succes te danken aan de grootschalige aankoopprogramma's van NASA en het Amerikaanse leger in de jaren vijftig en zestig.



Op dezelfde manier hebben alleen overheden het potentieel om de markt van AI-infrastructuur te betreden en GPU’s aan te schaffen voor hun eigen onderzoeksprogramma’s die de schaal van Big Tech kunnen evenaren. Dit is een manier om normen te stellen, door middel van participatie en leiderschap, in plaats van eindeloos te proberen bij te blijven door nog meer regels te schrijven.

Hoe zit het met financiële diensten? Tot nu toe zijn er geen tekenen dat regeringen bereid zijn deze rol te spelen, waardoor andere industrieën overgeleverd worden aan de genade van Big Tech.

De les is vergelijkbaar: Wall Street moet zo'n belangrijke klant van Big Tech worden dat het normen kan stellen voor de manier waarop met AI wordt omgegaan.

Het probleem is de grootte. Zelfs een JP Morgan heeft niet het gewicht om zich in deze arena te meten met een Microsoft. Het zou de kosten nooit kunnen rechtvaardigen.

Open source-AI

Maar hoe zit het met de industrie als groep? Is er een manier voor Big Finance – in samenwerking met de leidende fintechs over de hele wereld – om middelen te bundelen en een strategische klant te worden?

Banken zijn niet gewend om samen te spelen. Een dergelijke benadering zou volkomen vreemd zijn.

Aan de andere kant raken banken langzaamaan over op open source voor het ontwikkelen van software. Ze erkennen dat het delen van code voor veel niet-kernfuncties – door gemeenschapsspelers te zijn in plaats van eigen eigenaren – betere kwaliteit en veerkrachtiger software kan creëren.

Werkt open source voor genAI?

Het antwoord is onduidelijk. Sommige Big Techs op dit gebied zijn open geweest over hun ontwikkeling, zoals Meta, waarmee AI-startups een aantal van hun modellen kunnen downloaden en aanpassen.

Industriestandaarden voor open source vereisen dat alle gebruiksscenario's zijn toegestaan, maar weinig genAI-startups voldoen daadwerkelijk aan die criteria. De meeste, waaronder het absurd genaamde OpenAI, exploiteren een gesloten winkel.

Dat komt omdat genAI niet is zoals andere softwarecategorieën. De broncode is slechts één onderdeel. Net zo belangrijk zijn de trainingsgegevens en hoe die gegevens zijn gecategoriseerd. Tegenwoordig bestaat er binnen de AI-industrie geen consensus over wat ‘open source’ überhaupt betekent.

Hier is de opening voor financiële instellingen. Banken, beurzen en dataleveranciers bezitten gezamenlijk een kritische massa aan data, waarvan een groot deel specifiek is voor kapitaalmarkten en financiële diensten. Als er een mechanisme zou zijn om deze informatie te verzamelen, zou er in theorie een basis kunnen zijn voor het gezamenlijk ontwikkelen van code en de standaarden die daarbij horen.

Verkopers zouden zich verzetten tegen elke actie die hun bedrijf vernietigt; banken en verzekeraars willen niet graag samenwerken aan iets dat als essentieel kan worden beschouwd. Aan de andere kant kunnen er gebieden binnen de financiële dienstverlening zijn die voor de meeste spelers niet tot de kernactiviteiten behoren, en waar een sectorale oplossing wenselijk zou kunnen zijn. Digitale identiteit, compliance, rapportage en aspecten van risicobeheer komen allemaal in je op.

GravFin weet dat dit een zeer speculatief idee is, een idee dat wellicht nooit de enorme inspanning zal rechtvaardigen die nodig zou zijn om dit te verwezenlijken. Aan de andere kant: hoe belangrijk is het voor de financiële sector om haar toekomst vorm te geven in plaats van passief te wachten tot Silicon Valley dit in haar plaats doet? Dit is misschien waar we terugkeren naar het idee van de overheid als grote klant van AI. Als de overheid in deze hoedanigheid wil optreden, heeft zij eigen programma's nodig. Het reguleren van financiële diensten in het tijdperk van AI lijkt een goed beginpunt.

spot_img

Laatste intelligentie

spot_img