Logo Zéphyrnet

C'est votre orgueil humain qui freine l'acceptation de l'IA

Date :

La psychologie humaine peut empêcher les gens de réaliser les avantages de l'intelligence artificielle, selon un trio de boffins basé aux Pays-Bas.

Mais avec la formation, nous pouvons apprendre à surmonter nos préjugés et faire confiance à nos conseillers automatisés.

In un papier de préimpression intitulé "Knowing About Knowing: An Illusion of Human Competence Can Hinder Appropriate Reliance on AI Systems", Gaole He, Lucie Kuiper et Ujwal Gadiraju, de l'Université de technologie de Delft, examinent si l'effet Dunning-Kruger empêche les gens de se fier aux recommandations de Systèmes d'IA.

L'effet Dunning-Kruger (DKE) remonte à un article de 1999 par les psychologues David Dunning et Justin Kruger, « Non qualifiés et inconscients : comment les difficultés à reconnaître sa propre incompétence conduisent à des auto-évaluations exagérées ».

Dunning et Kruger postulent que les personnes incompétentes n'ont pas la capacité de reconnaître leur incompétence et ont donc tendance à surestimer leurs capacités.

En supposant que DKE existe - chose sur laquelle tout le monde n'est pas d'accord – les chercheurs de Delft suggèrent que cette condition cognitive signifie que les conseils de l'IA peuvent être perdus pour nous. Ce n'est pas idéal puisque les systèmes d'IA ont actuellement tendance à être présentés comme des systèmes d'assistance qui augmentent la prise de décision humaine plutôt que comme des systèmes autonomes qui fonctionnent sans surveillance. L'aide robotique ne signifie pas grand-chose si nous ne l'acceptons pas.

"Il s'agit d'un biais métacognitif particulièrement important à comprendre dans le contexte de la prise de décision humaine-IA, car on peut intuitivement comprendre comment des auto-évaluations gonflées et une supériorité illusoire sur un système d'IA peuvent entraîner une dépendance excessive à soi-même ou une sous-dépendance à l'IA. conseils », déclarent He, Kuiper et Gadiraju dans leur article, qui a été accepté sous condition pour CH 2023. "Cela peut obscurcir le comportement humain dans son interaction avec les systèmes d'IA."

Pour tester cela, les chercheurs ont demandé à 249 personnes de répondre à une série de questions à choix multiples pour tester leur raisonnement. Les répondants ont été invités à répondre aux questions d'abord par eux-mêmes, puis avec l'aide d'un assistant IA.

Questions, disponible dans le dépôt GitHub du projet de recherche, consistait en une série de questions comme celle-ci :

Médecin : En comparant notre pays avec deux autres pays ayant à peu près la même taille de population, j'ai constaté que même si nous sommes confrontés aux mêmes causes d'ulcères alimentaires, bactériennes et liées au stress, les prescriptions de médicaments contre les ulcères dans toutes les couches socio-économiques sont beaucoup plus rare ici que dans ces deux pays. Il est clair que nous souffrons beaucoup moins d'ulcères, par habitant, qu'eux.

On a ensuite demandé aux participants à l'étude, Lequel des énoncés suivants, s'il est vrai, renforce le plus l'argument du médecin ?

  1. Les deux pays qui ont été comparés au pays du médecin avaient approximativement les mêmes taux d'ulcères l'un que l'autre.
  2. Le pays du médecin dispose d'un bien meilleur système pour rapporter le nombre d'ordonnances d'un type donné qui sont obtenues chaque année que celui qui existe dans l'un ou l'autre des deux autres pays.
  3. Une personne dans le pays du médecin qui souffre d'ulcères est tout aussi susceptible d'obtenir une ordonnance pour la maladie qu'une personne souffrant d'ulcères dans l'un des deux autres pays.
  4. Plusieurs autres pays non couverts par les comparaisons des médecins ont plus de prescriptions de médicaments contre les ulcères que le pays du médecin.

Une fois que les répondants ont répondu, ils se sont vu présenter les mêmes questions ainsi que la réponse recommandée par un système d'IA (D pour la question ci-dessus), et ont eu la possibilité de modifier leur réponse initiale. Cette approche, selon les chercheurs, a été validé par des recherches antérieures [PDF]

Sur la base des réponses qu'ils ont reçues, les trois informaticiens concluent "que le DKE peut avoir un impact négatif sur la dépendance des utilisateurs au système d'IA..."

Mais la bonne nouvelle, si c'est le bon terme, c'est que DKE n'est pas le destin. Notre méfiance à l'égard de l'IA peut être éliminée.

"Pour atténuer ces biais cognitifs, nous avons introduit une intervention didactique comprenant un retour d'information sur les performances des tâches, ainsi que des explications élaborées manuellement pour contraster la bonne réponse avec les erreurs des utilisateurs", expliquent les chercheurs. "Les résultats expérimentaux indiquent qu'une telle intervention est très efficace pour calibrer l'auto-évaluation (amélioration significative) et a un effet positif sur l'atténuation de la sous-dépendance et la promotion d'une dépendance appropriée (résultats non significatifs)."

Pourtant, si les tutoriels aidaient ceux qui faisaient preuve d'excès de confiance (DKE), la rééducation corrective avait l'effet inverse sur ceux qui sous-estimaient initialement leurs capacités : cela les rendait soit trop confiants, soit peut-être opposés aux algorithmes - une conséquence connue [PDF] de voir des machines faire des erreurs.

Dans l'ensemble, les chercheurs concluent que davantage de travail doit être fait pour comprendre comment la confiance humaine dans les systèmes d'IA peut être façonnée.

On ferait bien de rappeler les paroles de HAL, de 2001: A Space Odyssey.

Je sais que j'ai pris de très mauvaises décisions récemment, mais je peux vous assurer que mon travail reviendra à la normale. J'ai toujours le plus grand enthousiasme et confiance dans la mission. Et je veux t'aider.

®

spot_img

Dernières informations

spot_img