Logo Zephyrnet

Wall Street può influenzare lo sviluppo dell’intelligenza artificiale?

Data:

L’intelligenza artificiale, in particolare l’intelligenza artificiale generativa, continua a promettere un notevole miglioramento della produttività in molti settori, tra cui quello bancario e assicurativo.

L’intelligenza artificiale pone anche molte sfide, come si manifesta nella sua tendenza ad avere allucinazioni. Un altro è il potenziale di abuso. Ciò può derivare da pregiudizi inconsci negli insiemi di addestramento dei dati, che si traducono in risultati discriminatori per le persone di colore. Può anche riflettere il modo in cui i sistemi genAI sono programmati, come evidenziato dal recente caos sulle immagini “svegliate” di papi o altre figure storiche che appaiono come tutt’altro che maschi bianchi.

Nei casi più estremi, i gestori patrimoniali potrebbero ricorrere all’intelligenza artificiale per la ricerca o anche per la negoziazione di portafogli. Le allucinazioni potrebbero rovinare un'azienda; così come cercare di spiegare a un regolatore perché un bot ha causato un flash crash.

È improbabile che l’intelligenza artificiale venga scatenata in modo così drammatico, ma può essere utilizzata in modi più sottili. In effetti, lo è già.

Banche, assicuratori e fintech utilizzano già strumenti di intelligenza artificiale per valutare i rating del credito o sottoscrivere polizze. Il settore rischia, ad esempio, di non essere in grado di spiegare a un cliente scontento il motivo per cui gli è stato negato un prestito.

La questione più banale è quando è possibile applicare l’intelligenza artificiale. Ad esempio, il software può essere utilizzato per analizzare l'output dei social media di qualcuno per giudicare il suo stato mentale, che potrebbe essere utilizzato per valutare un prodotto finanziario. Ciò solleva molte domande.

Le aziende dovrebbero essere autorizzate a prendere in considerazione tali dati? In caso contrario, quali sostituti esploreranno per ottenere una visione di un potenziale cliente? Che cosa costituisce la privacy e come viene applicata?

Regolamentati, per favore

La risposta naturale a tali domande è coinvolgere i regolatori. È meglio sviluppare un insieme di regole neutrali per frenare i peggiori impulsi di un'azienda. È anche più facile lasciare che i regolatori facciano il lavoro pesante – e mantenere la libertà di alzare le spalle se non lo fanno.

La regolamentazione è necessaria, ma è sufficiente? Forse, ma solo se il settore finanziario sarà soddisfatto di lasciare l’innovazione alle Big Tech e alla nuova generazione di startup basate sull’intelligenza artificiale.

Quando si parla di intelligenza artificiale, la realtà è che le autorità di regolamentazione non saranno mai in grado di tenere il passo. Non è una cosa negativa: ci aspettiamo che l'innovazione provenga dal settore privato. Ma la natura dell’intelligenza artificiale rende difficile la regolamentazione.

Innanzitutto, sono poche le persone che lavorano presso le autorità di regolamentazione che hanno una profonda esperienza nell’apprendimento automatico e in altri strumenti di intelligenza artificiale, per non parlare di genAI.

In secondo luogo, restare al passo con questo mondo richiede il controllo di enormi array di GPU, unità di elaborazione grafica, chip backbone che alimentano le applicazioni di intelligenza artificiale e l’hardware dei data center che compongono il cloud.

Il settore dell’intelligenza artificiale comprende startup come OpenAI, attori di Big Tech come Microsoft e Meta, specialisti di chip come Nvidia e fornitori di servizi cloud come AWS. Questi giganti dispongono di risorse straordinariamente vaste che raccolgono i migliori talenti e acquistano la potenza di calcolo per gestire i sistemi di intelligenza artificiale.

Né i regolatori né le imprese possono stabilire l’agenda finché le cose rimangono così.

Potere d'acquisto

Gli organismi di regolamentazione possono provare a stabilire regole – e dovrebbero, perché possono definire le norme di base – ma faranno fatica ad affrontare le sfumature di come impedire alle banche e ad altri di abusare dei sistemi di intelligenza artificiale.

Ci sono alternative, però. Il primo è guardare indietro al modo in cui i governi hanno contribuito a sostenere le loro economie innovative nei primi tempi. Ad esempio, la Silicon Valley deve gran parte del suo successo ai massicci programmi di acquisto della NASA e delle forze armate statunitensi negli anni ’1950 e ’1960.



Allo stesso modo, solo i governi hanno il potenziale per entrare nel mercato delle infrastrutture AI e acquistare GPU per i propri programmi di ricerca che possano eguagliare le dimensioni delle Big Tech. Questo è un modo per stabilire degli standard, attraverso la partecipazione e la leadership, piuttosto che cercare continuamente di tenere il passo scrivendo nuove regole.

E i servizi finanziari? Finora non vi è alcun segno che i governi siano pronti a svolgere questo ruolo, che lascia altri settori alla mercé delle Big Tech.

La lezione è simile: Wall Street deve diventare un cliente così importante per le Big Tech da poter stabilire standard su come viene trattata l’intelligenza artificiale.

Il problema è la dimensione. Nemmeno una JP Morgan ha il peso di eguagliare una Microsoft in questo campo. Non potrebbe mai giustificare il costo.

IA open source

Ma che dire del settore come gruppo? Esiste un modo per Big Finance – in combutta con le principali società fintech di tutto il mondo – di mettere insieme risorse e diventare un cliente strategico?

Le banche non sono abituate a giocare insieme. Un simile approccio sarebbe del tutto estraneo.

D’altro canto, le banche si stanno lentamente avvicinando all’open source per lo sviluppo di software. Riconoscono che la condivisione del codice per molte funzioni non fondamentali – essere attori della comunità invece che proprietari proprietari – può creare software di migliore qualità e più resiliente.

L’open source funziona per genAI?

La risposta non è chiara. Alcune grandi aziende tecnologiche in questo ambito sono state aperte allo sviluppo, come Meta, che consente alle startup di intelligenza artificiale di scaricare e adattare alcuni dei suoi modelli.

Gli standard di settore per l’open source richiedono che tutti i casi d’uso siano consentiti, ma poche startup genAI soddisfano effettivamente tali criteri. La maggior parte, inclusa OpenAI dal nome assurdo, gestisce un negozio chiuso.

Questo perché genAI non è come le altre categorie di software. Il codice sorgente è solo un componente. Altrettanto importanti sono i dati di addestramento e il modo in cui tali dati vengono classificati. Oggi non c’è consenso nel settore dell’intelligenza artificiale su cosa significhi “open source”.

Ecco l'apertura per gli istituti finanziari. Banche, borse valori e fornitori di dati possiedono collettivamente una massa critica di dati, molti dei quali sono specifici dei mercati dei capitali e dei servizi finanziari. In teoria, se esistesse un meccanismo per aggregare queste informazioni, potrebbe esserci una base per il co-sviluppo del codice e degli standard che lo accompagnano.

I venditori resisterebbero a qualsiasi mossa che distrugga la loro attività; le banche e gli assicuratori non sono disposti a collaborare su tutto ciò che potrebbe essere considerato fondamentale. D’altro canto, potrebbero esserci aree all’interno dei servizi finanziari che, per la maggior parte degli operatori, non sono fondamentali e in cui una soluzione settoriale potrebbe essere auspicabile. Mi vengono in mente l’identità digitale, la conformità, il reporting e gli aspetti della gestione del rischio.

Scava Fin sa che si tratta di un'idea molto speculativa, che potrebbe non giustificare mai l'enorme sforzo che sarebbe necessario per realizzarla. D’altra parte, quanto è importante che il settore finanziario plasmi il proprio futuro invece di aspettare passivamente che sia la Silicon Valley a farlo al suo posto? Forse è qui che torniamo all’idea del governo come grande cliente dell’intelligenza artificiale. Per poter agire in questa veste, il governo ha bisogno di programmi propri. La regolamentazione dei servizi finanziari nell’era dell’intelligenza artificiale sembra un buon punto di partenza.

spot_img

L'ultima intelligenza

spot_img