Logo Zéphyrnet

Le grand modèle de langage SauLM-7B vise les applications juridiques

Date :

Des chercheurs en apprentissage automatique et des experts juridiques ont publié SauLM-7B, qui, selon eux, est le premier grand modèle de langage open source générateur de texte spécifiquement axé sur le travail et les applications juridiques.

À la lumière des récentes erreurs très médiatisées au cours desquelles l’IA générative a cité des cas inexistants dans des dossiers soumis au tribunal – Mata contre Avianca ainsi que Park contre Kim – cela peut sembler peu judicieux. La tendance des modèles d’IA à halluciner et la provenance incertaine de leurs données semblent être des freins dans une industrie où les enjeux sont importants.

Mais les créateurs de SauLM-7B, affiliés à la startup Égal.ai, l'Université Paris-Saclay et la Sorbonne Université en France, ainsi que l'Universidade de Lisboa et la NOVA School of Law au Portugal, affirment qu'il y a une place pour l'intelligence artificielle dans le droit.

"Les LLM et plus largement les systèmes d'IA auront un impact transformateur sur la pratique du droit qui inclut mais va au-delà de la productivité marginale", a déclaré un porte-parole d'Equall.ai dans un e-mail à Le registre. « Notre objectif est de créer des systèmes d’IA juridique de bout en bout guidés et contrôlés par des avocats.

Notre conviction est que les systèmes spécialisés dans le domaine juridique seront plus performants que les systèmes généralistes.

« Notre conviction – basée sur les données et l’expérience – est que les systèmes spécialisés dans le domaine juridique seront plus performants que les systèmes généralistes. Cela inclut une plus grande précision et des outils plus utiles pour aider les avocats à se concentrer sur ce qu’ils aiment le plus et font le mieux, c’est-à-dire exercer leur jugement juridique et aider leurs clients en leur donnant des conseils.

D’autres organisations sont tout aussi optimistes quant à l’utilité de l’assistance de l’IA. Goldman Sachs l’année dernière estimé [PDF] qu'« un quart des tâches de travail actuelles pourraient être automatisées par l'IA aux États-Unis, avec des expositions particulièrement élevées dans les professions administratives (46 %) et juridiques (44 %)… » Et des startups comme Banc QI, Harvey.aiet Technologies de signalisation sécurisée voir une opportunité de marché dans ce genre de prédiction.

Equall.ai, fondée par Jorge Mattamouros, ancien associé chez White & Case LLP, affirme que presque tous les travaux juridiques – recherche, examen et analyse de documents, résumés et identification des passages clés des documents – peuvent bénéficier de l’IA.

"Nous pensons que les LLM ouvrent bien d'autres voies, certaines que nous voyons aujourd'hui, d'autres encore à découvrir", a poursuivi le porte-parole d'Equall.ai. « Par exemple, nous pensons que les LLM changeront radicalement la façon dont nous abordons les pipelines de traitement des données et la génération de données, ce qui sera essentiel pour les applications juridiques où l'obtention de données de haute qualité est coûteuse et difficile à réaliser.

L’opinion d’Equall.ai est que les inexactitudes des modèles d’IA peuvent être atténuées.

« Les LLM restent des modèles probabilistes », nous a expliqué le secteur. « Les hallucinations sont généralement le symptôme de LLM fonctionnant hors de distribution. En d'autres termes, lorsqu'ils sont invités à générer du texte sur des sujets et des données similaires aux données sur lesquelles le LLM a été formé, les LLM ont tendance à avoir beaucoup moins d'hallucinations que lorsqu'ils sont invités à parler de choses sur lesquelles ils ont peu appris.

« Par exemple, tout au long de notre évaluation de Saul avec de vrais avocats, nous avons pu confirmer qu'il était moins enclin à halluciner lorsqu'il discutait de concepts juridiques spécifiques. En bref, nous nous attendons à ce que les LLM spécifiquement formés aux données juridiques hallucinent beaucoup moins sur les sujets juridiques que leurs homologues généralistes.

Cela dit, le nouveau venu prévient qu'il ne faut pas s'appuyer sur les modèles d'IA comme s'il s'agissait d'une base de données légale, et qu'il est conseillé de revérifier les résultats des LLM. Nous dirions : La vérification est obligatoire.

Les créateurs de SauLM-7B – Pierre Colombo, Telmo Pessoa Pires, Malik Boudiaf, Dominic Culver, Rui Melo, Caio Corro, Andre FT Martins, Fabrizio Esposito, Vera Lúcia Raposo, Sofia Morgado et Michael Desa – décrivent leur travail dans un document intitulé « SaulLM-7B : Un modèle pionnier en langage large pour le droit. »

Disponible sur le site communautaire des modèles d'IA HuggingFace, SauLM-7B est basé sur le modèle open source Mistral 7B, tous deux comportant 7 milliards de paramètres. C'est nettement moins que des modèles comme LaMA 2, qui peut être basé sur jusqu'à 70 milliards de paramètres. Mais les créateurs de SauLM-7B notent qu'il ne s'agit que d'une première étape et que des travaux sont en cours avec différentes tailles de modèles.

Comme on peut s'y attendre d'un LLM, SauLM-7B fonctionne en se voyant poser des questions ou en recevant des invites en langage naturel, et il tente d'y répondre ou d'y répondre ; dans ce cas, il s'agit de la loi et des questions juridiques.

Jonathan Schwarz, co-fondateur et scientifique en chef de la startup britannique d'IA juridique Safe Sign Technologies, a déclaré : Le registre que les fabricants de SauLM-7B ont adopté une approche judicieuse pour spécialiser les LLM généraux.

« C'est une offre intéressante en tant qu'alternative open source aux techniques plus propriétaires », a-t-il déclaré. "Cependant, il y a du travail à faire."

C'est une offre intéressante comme alternative open source aux techniques plus propriétaires

Schwarz a souligné la nécessité de modèles d'équipe rouge, ce que son entreprise fait, selon lui, en interne.

On nous dit que Safe Sign Technologies a prototype un LLM juridique et vise à avoir une deuxième itération prête à être déployée par l'intermédiaire de partenaires plus tard cette année ou par la suite.

Schwarz a déclaré que la société n'était pas encore prête à commenter dans quelle mesure son offre serait open source ou propriétaire. Mais il a affirmé que même si SaulLM-7B-Instruct – une version affinée sur les instructions générales et juridiques – avait réussi à obtenir une moyenne de 0.61 sur le benchmark LegalBench-Instruct, « nous nous rapprochons de 0.77 ». Ce pourcentage de précision est similaire à celui de GPT-4, même si nous vous invitons à prendre un peu de sel avec les références d'apprentissage automatique.

"Notre ambition ici était de créer une solution d'IA qui donne instantanément à chaque personne des conseils juridiques de très bonne qualité", a déclaré Alexander (Sami) Kardos-Nyheim, co-fondateur et PDG de Safe Sign Technologies dans une interview avec Le registre. « Pas de conseils juridiques peu fiables de ChatGPT ou quelque chose comme ça. Mais des conseils juridiques sérieux que vous pouvez réellement utiliser et sur lesquels vous pouvez compter via l’IA.

Vous évitez en quelque sorte ce problème d'apprentissage de tous ces comportements toxiques que vous essayez d'annuler plus tard.

"En gros, la façon dont ces techniques ou ces méthodes sont généralement formées est que vous disposez d'un énorme ensemble de données qui ont été formées sur le Web et que vous échantillonnez chaque étape de formation directe ou que vous en choisissez simplement un sous-ensemble aléatoire", » expliqua Schwarz. «Ensuite, vous vous entraînez simplement sur ce sous-ensemble et vous le faites des milliards de fois.

« Au lieu de simplement choisir un sous-ensemble aléatoire, nous disposons de nouvelles méthodes qui, à chaque étape de l’entraînement, tentent de déterminer quel est le sous-ensemble optimal de données sur lequel s’entraîner à ce stade, de manière à ce que l’amélioration des modèles soit maximale. C'est la première étape. De cette façon, vous évitez en quelque sorte ce problème d’apprentissage de tous ces comportements toxiques que vous essayez d’annuler plus tard.

Schwarz a suggéré que l'approche de Safe Sign est, en fait, plus sûre. "Dans le cas où il y a une question juridique spécifique à laquelle le modèle ne sait tout simplement pas vraiment répondre, plutôt que de donner avec assurance une réponse incorrecte, nous pouvons simplement dire que nous nous retenons sur cette réponse."

Il a ensuite exprimé son scepticisme quant à l'approche de faire bouillir l'océan adoptée par OpenAI et Google, qui implique de se concentrer sur de vastes préjudices tels que les préjugés raciaux et sexistes, et de payer des entrepreneurs peu coûteux pour classer les réponses de leurs modèles afin qu'ils puissent recycler les réseaux neuronaux pour faire moins de réponses nuisibles.

"Si vous voulez être capable de faire tout ce qu'un humain peut faire, vous devez en quelque sorte comparer tout ce qu'un humain peut faire", a déclaré Schwarz. "Je pense que c'est en quelque sorte une stratégie perdante si vous essayez de faire cela sur tous les sujets possibles."

"Pas seulement dans l'IA juridique, mais plus généralement dans l'IA, nous ne constatons pas l'accent mis sur la sécurité et la robustesse qui permettent de créer des systèmes sérieux et fiables dans le contexte médical ou juridique", a ajouté Kardos-Nyheim. ®

spot_img

Dernières informations

spot_img