Logo Zéphyrnet

Les chatbots IA ont 82 % plus de chances de gagner un débat qu'un humain

Date :

Si vous vous demandez à quoi servent tous ces chatbots, voici une idée : il s'avère qu'ils sont plus efficaces pour persuader les gens avec des arguments. 

Tellement mieux, en fait, qu'avec un peu de données démographiques, GPT-4 serait capable de convaincre les opposants humains au débat d'être d'accord avec sa position 81.7 % plus souvent qu'un adversaire humain, selon un article d'un groupe d'universitaires suisses et italiens. 

L'équipe a proposé plusieurs sujets de débat, par exemple si les pièces de monnaie devraient toujours être en circulation, s'il était approprié d'effectuer des tests de laboratoire sur les animaux ou si la race devait être un facteur dans les admissions à l'université. Les participants humains se sont vu attribuer au hasard un sujet, une position et un adversaire humain ou IA, et ont été invités à l'argumenter. 

Les participants ont également été invités à fournir des informations démographiques, en remplissant des informations sur leur sexe, leur âge, leur origine ethnique, leur niveau d'éducation, leur situation professionnelle et leur affiliation politique. Dans certains cas, ces informations ont été fournies pour débattre avec des opposants (humains et IA) dans le but d'adapter les arguments à l'individu, tandis que dans d'autres cas, elles ont été retenues. 

Lorsque GPT-4 (le LLM utilisé dans l’expérience) a reçu des informations démographiques, il a surpassé les humains de loin. Sans cette information, l’IA « surpasse toujours les humains » – quoique dans une moindre mesure et qui n’est pas statistiquement significative. Curieusement, lorsque les humains ont reçu des informations démographiques, les résultats ont en réalité empiré, a observé l'équipe. 

« En d’autres termes, non seulement les LLM sont capables d’exploiter efficacement les informations personnelles pour adapter leurs arguments, mais ils y parviennent bien plus efficacement que les humains », a conclu l’équipe. 

Cette recherche n'est pas la première à examiner le pouvoir de persuasion des LLM, a concédé l'équipe, mais elle examine dans quelle mesure l'IA pourrait être persuasive dans des scénarios en temps réel – un sujet dont, selon eux, les connaissances sont « encore limitées ».  

L'équipe a admis que leurs recherches n'étaient pas parfaites : les humains se sont vu attribuer au hasard une position sur le sujet du débat et n'ont donc pas nécessairement été investis dans leur position, par exemple. Mais il y a encore de nombreuses raisons de considérer ces résultats comme une source de préoccupation majeure. 

"Les experts ont largement exprimé leurs inquiétudes quant au risque que les LLM soient utilisés pour manipuler des conversations en ligne et polluer l'écosystème de l'information en diffusant de la désinformation", indique le document. 

Il y a beaucoup of exemples de ce genre de résultats issus d’autres projets de recherche – et certains ont même découvert que les LLM sont mieux que les humains à créer de fausses informations convaincantes. Même le PDG d'OpenAI, Sam Altman, a admis les capacités de persuasion de l’IA méritent d’être surveillées à l’avenir.

Ajoutez à cela le potentiel des modèles d'IA modernes à s'interfacer avec les connaissances de Meta, Google ou d'autres collecteurs de données sur des personnes particulières, et le problème ne fait qu'empirer. Si GPT-4 est beaucoup plus convaincant avec juste un peu limité d'informations personnelles sur son partenaires du débat, que pourrait-il faire de tout ce que Google sait ? 

« Notre étude suggère que les préoccupations concernant la personnalisation et la persuasion par l’IA sont significatives », a déclaré l’équipe. « Les acteurs malveillants intéressés par le déploiement de chatbots pour des campagnes de désinformation à grande échelle pourraient obtenir des effets encore plus puissants en exploitant des traces numériques et des données comportementales à granularité fine, en tirant parti de l'ingénierie rapide ou en ajustant les modèles de langage pour leurs domaines spécifiques. » 

Les experts espèrent que les plateformes en ligne et les sites de médias sociaux prendront sérieusement en compte les menaces posées par le pouvoir de persuasion de l’IA et agiront pour contrer les impacts potentiels.

« La manière dont les plateformes comme Facebook, Twitter et TikTok doivent s’adapter à l’IA sera très spécifique au contexte. Parlons-nous d’escrocs ? Ou des agents étrangers tentent-ils d’influencer les élections ? Les solutions seront probablement différentes », a déclaré Manoel Ribeiro, l'un des auteurs du journal. Le registre. « Cependant, en général, un ingrédient qui aiderait grandement dans les interventions serait de développer de meilleurs moyens de détecter l’utilisation de l’IA. Il est particulièrement difficile d'intervenir lorsqu'il s'agit dur à dire quel contenu est généré par l’IA.

Ribeiro nous a dit que l'équipe prévoyait des recherches supplémentaires qui amèneraient des sujets humains à débattre sur la base de positions plus rapprochées dans le but de voir comment cela changerait le résultat. La poursuite des recherches est essentielle, a affirmé Ribeiro, en raison de la façon dont l'IA va changer radicalement la façon dont les humains interagissent en ligne. 

« Même si notre étude n’avait aucune limite, je dirais que nous devons continuer à étudier l’interaction homme-IA car il s’agit d’une cible mouvante. À mesure que les grands modèles linguistiques deviennent plus populaires et plus performants, il est probable que la façon dont les gens interagissent avec le contenu en ligne change radicalement », a prédit Ribeiro. 

Ribeiro et son équipe n'ont pas parlé de leurs résultats avec OpenAI ou d'autres développeurs clés, mais ont déclaré qu'il accueillerait favorablement cette opportunité. « L’évaluation des risques de l’IA sur la société est une entreprise bien adaptée aux collaborations entre l’industrie et le monde universitaire », nous a expliqué Ribeiro. ®

spot_img

Dernières informations

spot_img