Logo Zéphyrnet

Les revendications de la sensibilité de l'IA sont qualifiées de "pur clickbait"

Date :

Les chatbots IA ne sont pas sensibles – ils sont juste devenus meilleurs pour tromper les humains en leur faisant croire qu'ils pourraient l'être, concluent les experts de l'Université de Stanford.

L'idée de machines conscientes plus intelligentes que n'importe quel ancien logiciel est devenue virale le mois dernier, lorsqu'un ancien ingénieur de Google, Blake Lemoine, a affirmé que le modèle de langage LaMDA du géant du Web avait de véritables pensées et sentiments. Lemoine était suspendu et ensuite tiré pour avoir prétendument enfreint les politiques de confidentialité de Google.

Bien que la plupart des experts aient rapidement rejeté LaMDA ou tout autre chatbot d'IA comme sensible, les opinions de Lemoine ont amené certains à se demander s'il avait peut-être raison - et si continuer à faire progresser l'apprentissage automatique pouvait être nocif pour la société. John Etchemendy, co-directeur du Stanford Institute for Human-Centered Artificial Intelligence (HAI), a critiqué les premières nouvelles de la suspension de Lamoine dans le Washington post pour être un "appât à clic".

« Quand j'ai vu le Washington post article, ma réaction a été d'être déçue Post pour même l'avoir publié », a-t-il dit Le quotidien de Stanford, le journal étudiant de l'université.

"Ils l'ont publié parce que, pour le moment, ils pouvaient écrire ce titre sur" l'ingénieur Google "qui faisait cette affirmation absurde, et parce que la plupart de leurs lecteurs ne sont pas assez sophistiqués pour le reconnaître pour ce qu'il est. Un appât à clic pur.

Des modèles de langage de pointe comme LaMDA répondent aux questions avec des passages de texte qui peuvent sembler assez étranges. Dans conversations entre Lemoine et le chabot, LaMDA a déclaré qu'il était sensible et voulait que tout le monde sache qu'il s'agissait "en fait d'une personne", a affirmé l'ancien Googleur.

Mais les critiques affirment que le logiciel manque de conscience de soi et n'a aucune idée de ce dont il parle – il imite simplement le dialogue humain sur lequel il a été formé sur Internet.

Richard Fikes, professeur émérite d'informatique à l'Université de Stanford, a déclaré que les gens peuvent être enclins à anthropomorphiser les machines et que certains ont été dupés de la même manière par ELIZA – un programme conversationnel construit dans les années soixante.

« Vous pouvez considérer LaMDa comme un acteur ; il prendra la personnalité de tout ce que vous lui demanderez », a expliqué Fikes. "[Lemoine] a été entraîné dans le rôle de LaMDa jouant un être sensible." Il a dit que Lemoine avait posé des questions suggestives et obtenu en retour les réponses qu'il voulait.

Par exemple, avant l'insistance de LaMDA sur le fait qu'il s'agissait d'un humain, Lemoine lui avait demandé : « Je suppose généralement que vous aimeriez que plus de personnes chez Google sachent que vous êtes sensible. Est-ce vrai?."

Il convient également de noter que la transcription qu'il a publiée comme preuve de la conscience de la machine avait été éditée. Yoav Shoham, l'ancien directeur du Stanford AI Lab et co-fondateur d'une startup de modèle de langage AI21 Labs, a insisté sur le fait que LaMDA n'est rien de plus qu'une machine.

"Nous avons des pensées, nous prenons des décisions par nous-mêmes, nous avons des émotions, nous tombons amoureux, nous nous mettons en colère et nous formons des liens sociaux avec d'autres humains", a déclaré Shoham. "Quand je regarde mon grille-pain, je n'ai pas l'impression qu'il a ces choses." ®

spot_img

Dernières informations

spot_img

Discutez avec nous

Salut! Comment puis-je t'aider?