Zephyrnet-logotyp

Kan Wall Street påverka hur AI utvecklas?

Datum:

Artificiell intelligens, särskilt generativ AI, fortsätter att lova enorma produktivitetsförbättringar för många branscher, inklusive bank och försäkring.

AI innebär också många utmaningar, vilket manifesteras i dess tendens att hallucinera. En annan är risken för missbruk. Detta kan bero på omedvetna fördomar i dataträningsuppsättningar, vilket resulterar i diskriminerande resultat för färgade personer. Det kan också återspegla hur genAI-system är programmerade, vilket framgår av den senaste tidens strid om "vakna" bilder av påvar eller andra historiska figurer som framstår som allt annat än vita män.

I de mest extrema fallen kan kapitalförvaltare vända sig till AI för forskning eller till och med handelsportföljer. Hallucinationer kan förstöra ett företag; som kunde försöka förklara för en regulator varför en bot orsakade en blixtkrasch.

AI kommer sannolikt inte att släppas lös på ett så dramatiskt sätt, men det kan sättas i funktion på mer subtila sätt. Det är det faktiskt redan.

Banker, försäkringsbolag och fintechs använder redan AI-verktyg för att få kreditbetyg eller garantera policyer. Branschen riskerar att inte kunna förklara för en missnöjd kund varför de till exempel nekats ett lån.

Den mer vardagliga frågan är när AI kan tillämpas. Till exempel kan programvara användas för att analysera någons sociala media-utdata för att bedöma deras mentala tillstånd, vilket kan användas för att prissätta en finansiell produkt. Detta väcker många frågor.

Bör företag tillåtas att överväga sådana uppgifter? Om inte, vilka substitut kommer de att utforska för att få en bild av en potentiell kund? Vad är integritet och hur upprätthålls det?

Reglera, snälla

Det naturliga svaret på sådana frågor är att ta in tillsynsmyndigheterna. Det är bäst att utveckla en neutral uppsättning regler för att hålla tillbaka ett företags värsta impulser. Det är också lättare att låta regulatorerna göra det tunga arbetet – och behålla friheten att rycka på axlarna om de inte gör det.

Reglering krävs, men räcker det? Kanske, men bara om finansbranschen är nöjd med att lämna innovationen till Big Tech och den nya rasen av AI-startups.

När det kommer till AI är verkligheten att regulatorer aldrig kommer att kunna hålla jämna steg. Det är inte dåligt: ​​vi förväntar oss att innovation kommer från den privata sektorn. Men arten av AI gör reglering svår.

För det första är det få personer som arbetar på regulatorer som har djup expertis inom maskininlärning och andra AI-verktyg, än mindre genAI.

För det andra, för att hänga med i den här världen krävs att man behärskar enorma arrayer av GPU:er, grafikprocessorer, ryggradschips som driver AI-applikationer och hårdvaran i datacenter som utgör molnet.

AI-branschen inkluderar startups som OpenAI, Big Tech-spelare som Microsoft och Meta, chipspecialister som Nvidia och molnleverantörer som AWS. Dessa jättar har unikt enorma resurser som samlar ihop de bästa talangerna – och köper datorkraften för att köra AI-system.

Varken tillsynsmyndigheter eller företag kan sätta agendan så länge detta är fallet.

Köpa kraft

Tillsynsorgan kan försöka sätta regler – och det borde de, eftersom de kan forma de grundläggande normerna – men de kommer att kämpa för att hantera nyanserna i hur man förhindrar banker och andra från att missbruka AI-system.

Det finns dock alternativ. En är att se tillbaka på hur regeringar har hjälpt till att stödja deras innovationsekonomier i början. Till exempel har Silicon Valley mycket av sin framgång att tacka NASAs och den amerikanska militärens massiva inköpsprogram på 1950- och 1960-talen.



På samma sätt är det bara regeringar som har potential att ta sig in på marknaden för AI-infrastruktur och köpa GPU:er för sina egna forskningsprogram som kan matcha Big Techs omfattning. Det här är ett sätt att sätta standarder, genom deltagande och ledarskap, snarare än att oändligt försöka hänga med genom att skriva fler regler.

Hur är det med finansiella tjänster? Än så länge finns det inga tecken på att regeringar är beredda att spela denna roll, vilket lämnar andra industrier på Big Techs nåd.

Lärdomen är liknande: Wall Street måste bli en så viktig kund för Big Tech att den kan sätta standarder för hur AI behandlas.

Problemet är storleken. Inte ens en JP Morgan har kraften att matcha en Microsoft på den här arenan. Det kunde aldrig motivera kostnaden.

AI med öppen källkod

Men hur är det med branschen som grupp? Finns det ett sätt för Big Finance – i förbund med de ledande fintechs runt om i världen – att slå samman resurser och bli en strategisk kund?

Banker är inte vana vid att spela tillsammans. Ett sådant tillvägagångssätt skulle vara helt främmande.

Å andra sidan värms bankerna sakta upp till öppen källkod för att utveckla mjukvara. De inser att delning av kod för många icke-kärnfunktioner – att vara community-spelare istället för proprietära ägare – kan skapa bättre kvalitet och mer motståndskraftig programvara.

Fungerar öppen källkod för genAI?

Svaret är oklart. Vissa stora tekniker i det här utrymmet har varit öppna med sin utveckling, till exempel Meta, som låter AI-startups ladda ner och anpassa några av sina modeller.

Branschstandarder för öppen källkod kräver att alla användningsfall är tillåtna, men få genAI-startuper uppfyller faktiskt de kriterierna. De flesta, inklusive den absurt namngivna OpenAI, driver en stängd butik.

Det beror på att genAI inte är som andra kategorier av programvara. Källkoden är bara en komponent. Lika viktigt är träningsdata och hur dessa data kategoriseras. Idag finns det ingen konsensus inom AI-branschen om vad "öppen källkod" ens betyder.

Här är öppningen för finansiella institutioner. Banker, börser och dataleverantörer äger tillsammans en kritisk massa av data, varav mycket är specifikt för kapitalmarknader och finansiella tjänster. I teorin, om det fanns en mekanism för att aggregera denna information, skulle det kunna finnas en grund för att samutveckla kod och de standarder som följer med den.

Säljare skulle motstå alla åtgärder som förstör deras verksamhet; banker och försäkringsbolag är inte angelägna om att samarbeta om något som kan anses vara centralt. Däremot kan det finnas områden inom finansiella tjänster som för de flesta aktörer inte är centrala och där en branschlösning kan vara önskvärd. Digital identitet, efterlevnad, rapportering och aspekter av riskhantering kommer alla att tänka på.

DigFin vet att detta är en mycket spekulativ uppfattning, en som kanske aldrig rättfärdigar den enorma ansträngning som skulle krävas för att få det att hända. Å andra sidan, hur viktigt är det för finansbranschen att forma sin framtid istället för att passivt vänta på att Silicon Valley ska göra det i dess ställe? Det är kanske här vi återvänder till idén om regeringen som en stor kund av AI. För att regeringen ska kunna agera i denna egenskap behöver den egna program. Att reglera finansiella tjänster i AI-tiden verkar vara ett bra ställe att börja.

plats_img

Senaste intelligens

plats_img