Zephyrnet Logo

Wall Street pode influenciar o desenvolvimento da IA?

Data:

A inteligência artificial, especialmente a IA generativa, continua a prometer um grande aumento de produtividade para muitos setores, incluindo a banca e os seguros.

A IA também apresenta muitos desafios, como se manifesta na sua tendência a ter alucinações. Outra é o potencial de abuso. Isso pode resultar de preconceitos inconscientes nos conjuntos de treinamento de dados, que resultam em resultados discriminatórios para pessoas de cor. Também pode reflectir a forma como os sistemas genAI são programados, como evidenciado pela recente confusão sobre imagens “acordadas” de papas ou outras figuras históricas que aparecem como tudo menos homens brancos.

Nos casos mais extremos, os gestores de ativos podem recorrer à IA para investigação ou mesmo para negociação de carteiras. As alucinações poderiam arruinar uma empresa; assim como tentar explicar a um regulador por que um bot causou um flash crash.

É pouco provável que a IA seja desencadeada de forma tão dramática, mas pode ser posta em prática de formas mais subtis. Na verdade, já é.

Bancos, seguradoras e fintechs já utilizam ferramentas de IA para avaliar classificações de crédito ou subscrever apólices. A indústria corre o risco de não conseguir explicar a um cliente insatisfeito por que lhe foi negado um empréstimo, por exemplo.

A questão mais mundana é quando a IA pode ser aplicada. Por exemplo, o software pode ser usado para analisar a produção de alguém nas redes sociais para avaliar o seu estado mental, o que poderia ser usado para definir o preço de um produto financeiro. Isso levanta muitas questões.

As empresas deveriam ser autorizadas a considerar esses dados? Caso contrário, que substitutos explorarão para obter a visão de um cliente potencial? O que constitui privacidade e como ela é aplicada?

Regularize, por favor

A resposta natural a tais questões é trazer os reguladores. É melhor desenvolver um conjunto neutro de regras para restringir os piores impulsos de uma empresa. Também é mais fácil deixar que os reguladores façam o trabalho pesado – e manter a liberdade de encolher os ombros caso não o façam.

A regulamentação é necessária, mas será suficiente? Talvez, mas apenas se a indústria financeira estiver satisfeita em deixar a inovação para as Big Tech e a nova geração de startups de IA.

Quando se trata de IA, a realidade é que os reguladores nunca conseguirão acompanhar o ritmo. Isso não é mau: esperamos que a inovação venha do sector privado. Mas a natureza da IA ​​torna a regulamentação difícil.

Em primeiro lugar, há poucas pessoas que trabalham em reguladores com profundo conhecimento em aprendizagem automática e outras ferramentas de IA, muito menos em genAI.

Em segundo lugar, manter-se atualizado neste mundo requer o comando de enormes conjuntos de GPUs, unidades de processamento gráfico, os chips de backbone que alimentam os aplicativos de IA e o hardware dos data centers que compõem a nuvem.

A indústria de IA inclui startups como OpenAI, grandes players de tecnologia como Microsoft e Meta, especialistas em chips como Nvidia e provedores de nuvem como AWS. Estes gigantes têm recursos excepcionalmente vastos que captam os melhores talentos – e adquirem o poder computacional para executar sistemas de IA.

Nem os reguladores nem as empresas poderão definir a agenda enquanto este continuar a ser o caso.

Poder de compra

Os organismos reguladores podem tentar estabelecer regras – e devem fazê-lo, porque podem moldar as normas básicas – mas terão dificuldade em lidar com as nuances de como impedir que os bancos e outros abusem dos sistemas de IA.

Existem alternativas, no entanto. Uma delas é olhar para trás e ver como os governos ajudaram a apoiar as suas economias de inovação nos primeiros dias. Por exemplo, Silicon Valley deve muito do seu sucesso aos enormes programas de compras da NASA e das forças armadas dos EUA nas décadas de 1950 e 1960.



Da mesma forma, apenas os governos têm potencial para entrar no mercado de infraestruturas de IA e adquirir GPUs para os seus próprios programas de investigação que possam corresponder à escala da Big Tech. Esta é uma forma de estabelecer padrões, através da participação e da liderança, em vez de tentar incessantemente manter-se atualizado, escrevendo mais regras.

E os serviços financeiros? Até agora não há sinais de que os governos estejam preparados para desempenhar este papel, o que deixa outras indústrias à mercê das Big Tech.

A lição é semelhante: Wall Street precisa de se tornar um cliente tão importante para a Big Tech que possa estabelecer padrões sobre como a IA é tratada.

O problema é o tamanho. Nem mesmo um JP Morgan tem peso para se igualar a uma Microsoft nesta área. Nunca poderia justificar o custo.

IA de código aberto

Mas e a indústria como um grupo? Existe uma maneira de as grandes finanças – em parceria com as principais fintechs de todo o mundo – reunirem recursos e se tornarem um cliente estratégico?

Os bancos não estão acostumados a jogar juntos. Tal abordagem seria completamente estranha.

Por outro lado, os bancos estão lentamente a aderir ao código aberto para o desenvolvimento de software. Eles reconhecem que compartilhar código para muitas funções não essenciais – sendo participantes da comunidade em vez de proprietários proprietários – pode criar software de melhor qualidade e mais resiliente.

O código aberto funciona para genAI?

A resposta não é clara. Algumas Big Techs neste espaço têm sido abertas em seu desenvolvimento, como a Meta, que permite que startups de IA baixem e adaptem alguns de seus modelos.

Os padrões da indústria para código aberto exigem que todos os casos de uso sejam permitidos, mas poucas startups de genAI realmente atendem a esses critérios. A maioria, incluindo o absurdamente chamado OpenAI, opera em uma loja fechada.

Isso porque genAI não é como outras categorias de software. O código-fonte é apenas um componente. Tão importante quanto são os dados de treinamento e como esses dados são categorizados. Hoje não há consenso dentro da indústria de IA sobre o que significa “código aberto”.

Aqui está a abertura para instituições financeiras. Os bancos, as bolsas e os fornecedores de dados possuem colectivamente uma massa crítica de dados, muitos dos quais são específicos dos mercados de capitais e dos serviços financeiros. Em teoria, se houvesse um mecanismo para agregar esta informação, poderia haver uma base para o co-desenvolvimento do código e dos padrões que o acompanham.

Os fornecedores resistiriam a qualquer movimento que destruísse seus negócios; bancos e seguradoras não estão interessados ​​em colaborar em nada que possa ser considerado essencial. Por outro lado, poderão existir áreas nos serviços financeiros que, para a maioria dos intervenientes, não são essenciais e nas quais uma solução industrial poderia ser desejável. Identidade digital, conformidade, relatórios e aspectos de gerenciamento de riscos vêm à mente.

DigFin sabe que esta é uma noção muito especulativa, que poderá nunca justificar o enorme esforço que seria necessário para que isso acontecesse. Por outro lado, quão importante é para a indústria financeira moldar o seu futuro, em vez de esperar passivamente que Silicon Valley o faça em seu lugar? Talvez seja aqui que voltamos à ideia do governo como um grande cliente da IA. Para que o governo atue nesta capacidade, necessita de programas próprios. Regulamentar os serviços financeiros na era da IA ​​parece ser um bom ponto de partida.

local_img

Inteligência mais recente

local_img