Logo Zéphyrnet

La plus grosse erreur de l’IA : l’ex-avocat de Trump cite une erreur technique dans de fausses citations juridiques

Date :

Michael Cohen, qui était autrefois l’avocat de Donald Trump, est désormais dans la plus grande sphère juridique. Un événement inattendu s’est produit qui montre comment les tribunaux utilisent involontairement le contenu créé par l’IA. Cohen a récemment admis qu'il avait utilisé à tort des citations de Google Bard, un chatbot IA, parce qu'il pensait que c'était un meilleur moteur de recherche. Cohen devrait être un témoin clé dans les futures affaires contre Trump. Cette utilisation imprudente du contenu créé par l’IA a soulevé des questions sur la fiabilité et la véracité de ce type d’informations dans le monde juridique.

Cette confusion a mis en évidence un problème majeur : s’appuyer aveuglément sur l’IA en droit peut provoquer des erreurs, rendant les arguments juridiques fragiles. C’est comme utiliser une aide ultra-rapide mais parfois confuse.

Utilisation abusive, intentionnelle ou non, du contenu de l'IA

Dans un tribunal dépôt, Cohen a admis avoir donné à son avocat, David Schwartz, des citations judiciaires qu'il avait obtenues de Google Bard, pensant à tort qu'elles étaient réelles. Cependant, le fait que ces citations aient ensuite été ajoutées à des documents judiciaires officiels a déclenché des signaux d’alarme et a conduit à des discussions sur le degré de non-contrôle de l’authenticité du contenu créé par l’IA et sur ce que cela signifie pour les systèmes juridiques. 

Une autre avocate, E. Danya Perry, a ensuite rejoint la défense de Cohen, mais a précisé qu'elle n'était intervenue qu'après que Schwartz avait déposé la requête. Perry, après avoir examiné le document, n’a pas pu vérifier l’existence de la jurisprudence citée, informant le tribunal de ce problème éthique.

De plus, une telle question a suscité l’examen minutieux du juge Jesse M. Furman, qui a conduit à la révélation que les affaires citées n’existaient pas dans des contextes juridiques pertinents. Tandis que Furman a également ordonné une explication de la façon dont la motion faisait référence à des cas inexistants et à l’implication de Cohen. 

Par conséquent, la situation a des implications sur le rôle de Cohen en tant que témoin dans une prochaine affaire contre Trump. Les défenseurs de Cohen affirment qu’il n’a pas commis de faute car il s’est appuyé sur son avocat, ignorant les citations falsifiées. 

L’IA dans les documents juridiques : une tendance croissante ?

Le problème de Cohen n’est pas unique. Des erreurs d’IA similaires dans des dossiers juridiques se sont produites ailleurs, indiquant une tendance. L’IA peut collecter rapidement des données, mais ce n’est pas parfait. Les avocats doivent vérifier les résultats de l’IA pour éviter ces erreurs. Un événement similaire s'est produit plus tôt cette année lorsque l'avocat Steven Schwartz a été critiqué pour avoir utilisé des citations générées par l'IA dans des documents judiciaires. La critique du juge a identifié de fausses décisions judiciaires et des références incorrectes, suscitant des inquiétudes quant à l’utilisation de l’IA pour la recherche juridique.

Cependant, les citations générées par AI dans la requête de Cohen se sont révélées sans pertinence et sans rapport avec la demande de libération surveillée. Cela met en évidence une erreur importante dans le dépôt et souligne la nécessité de faire preuve de prudence et de vérification lors de l’utilisation de l’IA dans la recherche juridique afin de garantir l’exactitude des arguments présentés au tribunal.

La leçon ici ? Bien que l’IA soit pratique, il est crucial de vérifier ses informations d’un point de vue juridique. Sinon, c’est comme compter sur un ami ultra-rapide mais parfois peu fiable pour des tâches critiques.

spot_img

Dernières informations

spot_img