Logo Zéphyrnet

Le juge en chef de la Cour suprême rend compte des juges dotés de l'IA

Date :

Le juge en chef de la Cour suprême des États-Unis, John Roberts, estime que l’intelligence artificielle jouera un rôle de plus en plus important dans le processus judiciaire, mais il s’attend à ce que « les juges humains soient là pendant un certain temps ».

Roberts a fait cette observation dans son rapport de fin d’année 2023 sur le pouvoir judiciaire fédéral [PDF], qui n’a pas encore abordé le sujet.

"L'IA a évidemment un grand potentiel pour améliorer considérablement l'accès aux informations clés pour les avocats et les non-avocats", a écrit Roberts. "Mais cela risque tout aussi évidemment de porter atteinte aux intérêts de la vie privée et de déshumaniser la loi."

Roberts a cité la valeur potentielle des systèmes d’IA pour aider les personnes qui n’ont pas les moyens de se faire représenter par un avocat en leur permettant de préparer elles-mêmes leurs dossiers judiciaires. Dans le même temps, il a averti que les modèles d’IA ont titres pour leur tendance à halluciner, « ce qui a amené les avocats utilisant l’application à soumettre des mémoires avec des citations sur des cas inexistants. (Toujours une mauvaise idée.) »

Comme pour souligner cette inquiétude, des documents dévoilés la semaine dernière ont révélé que Michael Cohen, l'avocat qui s'occupait auparavant des affaires juridiques du président Donald Trump, avait donné à son propre avocat fausses citations juridiques de Google Barde. Il l’a fait pour soutenir une motion visant à mettre fin rapidement à sa surveillance ordonnée par le tribunal, après avoir reconnu des violations du financement de la campagne de 2018.

Roberts a également fait valoir que les machines ne peuvent actuellement pas rivaliser avec la capacité d’un juge humain à évaluer la sincérité du discours d’un accusé. "La nuance compte : beaucoup de choses peuvent dépendre d'une main tremblante, d'une voix tremblante, d'un changement d'inflexion, d'une goutte de sueur, d'un instant d'hésitation, d'une interruption fugace du contact visuel", a-t-il écrit.

Et il a poursuivi en observant que, dans les affaires pénales où l’IA est utilisée pour évaluer le risque de fuite, la récidive ou d’autres décisions prédictives, il existe une controverse permanente sur la régularité de la procédure, la fiabilité et les préjugés que de tels systèmes peuvent contenir.

"Au moins à l'heure actuelle, des études montrent une perception publique persistante d'un 'écart d'équité entre l'homme et l'IA', reflétant l'opinion selon laquelle les jugements humains, malgré tous leurs défauts, sont plus justes que tout ce que la machine crache", a écrit Roberts.

Cette perception a été contestée dans un article publié en septembre par les universitaires de Harvard Victoria Angelova, Will Dobbie et Crystal Yang par l'intermédiaire du National Bureau of Economic Research. Le papier, « Recommandations algorithmiques et discrétion humaine », révèle que lorsque des juges humains annulent les décisions algorithmiques sur l'opportunité de libérer ou de détenir un accusé sous caution, 90 % des humains ne parviennent pas à détecter les récidivistes potentiels.

"Cette découverte indique que le juge typique dans notre contexte est moins compétent pour prédire les fautes professionnelles que l'algorithme et que nous pourrions réduire considérablement les taux de fautes professionnelles en automatisant les décisions de mise en liberté", déclarent les auteurs dans leur article.

Dans le même temps, 10 % des juges parviennent à surpasser l’algorithme lorsqu’ils ignorent ses recommandations et sont plus à même d’anticiper les fautes des accusés. Le facteur commun à ces « juges hautement qualifiés » est qu’ils sont moins susceptibles d’avoir travaillé auparavant dans les forces de l’ordre et qu’ils sont plus à même d’utiliser des informations privées non disponibles pour l’algorithme.

Le document indique que les juges peu compétents accordent plus d’attention aux facteurs démographiques comme la race, tandis que les juges hautement qualifiés se concentrent davantage sur des questions non démographiques comme la santé mentale, la toxicomanie et les ressources financières.

Les juges humains existeront sans aucun doute pendant un certain temps, estime Roberts. Et pour la majorité sous-performante, il se peut que l’IA puisse les aider à s’améliorer, du moins dans le contexte de la prise de décision avant le procès. ®

spot_img

Dernières informations

spot_img