Logo Zéphyrnet

Wall Street peut-elle influencer le développement de l’IA ?

Date :

L’intelligence artificielle, en particulier l’IA générative, continue de promettre une amélioration considérable de la productivité dans de nombreux secteurs, notamment la banque et l’assurance.

L’IA pose également de nombreux défis, comme en témoigne sa tendance à halluciner. Un autre problème est le risque d’abus. Cela peut provenir de préjugés inconscients dans les ensembles de données d’entraînement, qui entraînent des résultats discriminatoires pour les personnes de couleur. Cela peut également refléter la façon dont les systèmes genAI sont programmés, comme en témoigne le récent brouhaha autour des images « réveillées » de papes ou d’autres personnages historiques qui apparaissent comme tout sauf des hommes blancs.

Dans les cas les plus extrêmes, les gestionnaires d’actifs pourraient se tourner vers l’IA pour la recherche ou même pour la négociation de portefeuilles. Les hallucinations pourraient ruiner une entreprise ; tout comme essayer d’expliquer à un régulateur pourquoi un robot a provoqué un crash flash.

Il est peu probable que l’IA se déchaîne de manière aussi spectaculaire, mais elle peut être mise à profit de manière plus subtile. En fait, c’est déjà le cas.

Les banques, les assureurs et les fintechs utilisent déjà des outils d’IA pour évaluer les notations de crédit ou souscrire des polices. L’industrie risque de ne pas être en mesure d’expliquer à un client mécontent pourquoi on lui a refusé un prêt, par exemple.

La question la plus banale est de savoir quand l’IA peut être appliquée. Par exemple, un logiciel peut être utilisé pour analyser les résultats d'une personne sur les réseaux sociaux afin de juger de son état mental, ce qui pourrait être utilisé pour fixer le prix d'un produit financier. Cela soulève beaucoup de questions.

Les entreprises devraient-elles être autorisées à prendre en compte ces données ? Dans la négative, quels substituts exploreront-ils pour avoir une idée d’un client potentiel ? Qu’est-ce qui constitue la vie privée et comment est-elle appliquée ?

Réglementez, s'il vous plaît

La réponse naturelle à ces questions est de faire appel aux régulateurs. Il est préférable d’élaborer un ensemble de règles neutres pour restreindre les pires impulsions d’une entreprise. Il est également plus facile de laisser les régulateurs faire le gros du travail – et de conserver la liberté de hausser les épaules s'ils ne le font pas.

Une réglementation est nécessaire, mais est-elle suffisante ? Peut-être, mais seulement si le secteur financier se contente de laisser l’innovation aux Big Tech et à la nouvelle génération de startups de l’IA.

En matière d’IA, la réalité est que les régulateurs ne seront jamais en mesure de suivre le rythme. Ce n'est pas une mauvaise chose : nous attendons que l'innovation vienne du secteur privé. Mais la nature de l’IA rend sa réglementation difficile.

Premièrement, peu de personnes travaillant chez les régulateurs possèdent une expertise approfondie en matière d’apprentissage automatique et d’autres outils d’IA, sans parler de genAI.

Deuxièmement, pour rester à la pointe de ce monde, il faut disposer d'une vaste gamme de GPU, d'unités de traitement graphique, de puces de base qui alimentent les applications d'IA et du matériel des centres de données qui composent le cloud.

L'industrie de l'IA comprend des startups comme OpenAI, des acteurs de grande technologie tels que Microsoft et Meta, des spécialistes des puces comme Nvidia et des fournisseurs de cloud comme AWS. Ces géants disposent de ressources d’une ampleur unique qui leur permettent d’aspirer les meilleurs talents et d’acheter la puissance de calcul nécessaire pour faire fonctionner les systèmes d’IA.

Ni les régulateurs ni les entreprises ne peuvent fixer l’ordre du jour tant que cela reste le cas.

Pouvoir d'achat

Les organismes de réglementation peuvent essayer d’établir des règles – et ils devraient le faire, car ils peuvent façonner les normes de base – mais ils auront du mal à gérer les nuances quant à la manière d’empêcher les banques et autres d’abuser des systèmes d’IA.

Il existe cependant des alternatives. La première consiste à revenir sur la manière dont les gouvernements ont contribué à soutenir leurs économies innovantes au début. Par exemple, la Silicon Valley doit une grande partie de son succès aux programmes d’achats massifs de la NASA et de l’armée américaine dans les années 1950 et 1960.



De la même manière, seuls les gouvernements ont le potentiel de pénétrer sur le marché des infrastructures d’IA et d’acheter des GPU pour leurs propres programmes de recherche, à la hauteur des grandes technologies. C’est une façon d’établir des normes, grâce à la participation et au leadership, plutôt que d’essayer sans cesse de suivre le rythme en écrivant davantage de règles.

Qu’en est-il des services financiers ? Jusqu’à présent, rien n’indique que les gouvernements soient prêts à jouer ce rôle, ce qui laisse les autres secteurs à la merci des Big Tech.

La leçon est similaire : Wall Street doit devenir un client si important pour les Big Tech qu’elle puisse établir des normes sur la manière dont l’IA est traitée.

Le problème est la taille. Même JP Morgan n’a pas le poids d’égaler Microsoft dans ce domaine. Cela ne pourrait jamais justifier le coût.

IA open source

Mais qu’en est-il de l’industrie en tant que groupe ? Existe-t-il un moyen pour la grande finance – en collaboration avec les principales fintechs du monde – de mutualiser ses ressources et de devenir un client stratégique ?

Les banques ne sont pas habituées à jouer ensemble. Une telle approche serait totalement étrangère.

D’un autre côté, les banques se tournent lentement vers l’open source pour développer des logiciels. Ils reconnaissent que le partage de code pour de nombreuses fonctions non essentielles – en tant qu’acteurs communautaires plutôt que propriétaires propriétaires – peut créer des logiciels de meilleure qualité et plus résilients.

L'open source fonctionne-t-il pour genAI ?

La réponse n'est pas claire. Certaines grandes technologies de cet espace ont été ouvertes dans leur développement, comme Meta, qui permet aux startups d'IA de télécharger et d'adapter certains de ses modèles.

Les normes industrielles pour l’open source exigent que tous les cas d’utilisation soient autorisés, mais peu de startups genAI répondent réellement à ces critères. La plupart, y compris la société au nom absurde OpenAI, exploitent un atelier fermé.

C’est parce que genAI n’est pas comme les autres catégories de logiciels. Le code source n'est qu'un composant. Les données de formation et la façon dont ces données sont catégorisées sont tout aussi importantes. Aujourd’hui, il n’existe pas de consensus au sein de l’industrie de l’IA sur ce que signifie « open source ».

Voici l'ouverture pour les institutions financières. Les banques, les bourses et les fournisseurs de données possèdent collectivement une masse critique de données, dont une grande partie est spécifique aux marchés des capitaux et aux services financiers. En théorie, s’il existait un mécanisme permettant de regrouper ces informations, il pourrait y avoir une base pour co-développer du code et les normes qui l’accompagnent.

Les vendeurs résisteraient à toute mesure susceptible de détruire leur activité ; les banques et les assureurs ne sont pas disposés à collaborer sur tout ce qui pourrait être considéré comme essentiel. D’un autre côté, il pourrait y avoir des domaines au sein des services financiers qui, pour la plupart des acteurs, ne sont pas essentiels et dans lesquels une solution industrielle pourrait être souhaitable. L’identité numérique, la conformité, le reporting et les aspects de la gestion des risques viennent tous à l’esprit.

CreusezFin sait qu’il s’agit d’une notion très spéculative, qui ne justifiera peut-être jamais l’énorme effort qui serait nécessaire pour y parvenir. D’un autre côté, dans quelle mesure est-il important pour le secteur financier de façonner son avenir au lieu d’attendre passivement que la Silicon Valley le fasse à sa place ? C’est peut-être là que nous revenons à l’idée du gouvernement comme gros client de l’IA. Pour que le gouvernement puisse agir à ce titre, il lui faut des programmes qui lui sont propres. Réguler les services financiers à l’ère de l’IA semble être un bon point de départ.

spot_img

Dernières informations

spot_img