Logo Zéphyrnet

Assistants utiles, partenaires romantiques ou escrocs ? Deuxième partie » Blog CCC

Date :

Le CCC a soutenu trois sessions scientifiques lors de la conférence annuelle de l'AAAS de cette année, et au cas où vous ne pourriez pas y assister en personne, nous récapitulerons chaque session. Aujourd'hui, nous résumerons les points saillants de la partie questions-réponses de la session : « Grands modèles linguistiques : assistants utiles, partenaires romantiques ou escrocs ?» Ce panel, modéré par Dr Maria Gini, membre du conseil du CCC et professeur d'informatique et d'ingénierie à l'Université du Minnesota, en vedette Dr Ece Kamar, directeur général d'AI Frontiers chez Microsoft Research, Dr Hal Daume III, professeur d'informatique à l'Université du Maryland, et Dr Jonathan May, professeur d'informatique à l'Institut des sciences de l'information de l'Université de Californie du Sud.

Vous trouverez ci-dessous le résumé fascinant de la partie questions-réponses du "Grands modèles linguistiques : assistants utiles, partenaires romantiques ou escrocs ? »panneau. L'IA est-elle capable d'aimer ? Quels types d’impacts ces modèles pourraient-ils avoir sur les enfants ? Comment se situent les capacités des États-Unis en matière d’IA ? Découvrez ci-dessous :

Q : Lors du déploiement de modèles linguistiques d'IA dans des contextes multilingues et multiculturels, quelles pratiques devons-nous mettre en œuvre ?

Dr May : En développant la technologie et en abaissant les murs, il devrait être plus facile pour les gens de faire ce qu'ils veulent. Ce que tout le monde veut faire, pas seulement moi. Merci AI, c'est bien de se concentrer sur moi, mais nous devrions faire attention au reste du monde en général.

Q : Certaines de ces questions générales – ce n’est pas la première fois qu’elles sont évoquées. On dirait que la communauté n’y arrivera pas d’elle-même. Je me demande si vous avez tous des idées sur la manière de concrétiser ces conversations ?

Dr Kamar : De nombreuses parties différentes ont un rôle à jouer. L’évaluation est très importante pour représenter différentes cultures et populations. Lorsque les ensembles de données ne présentent pas de diversité dans la représentation mondiale, les systèmes résultants ne sont pas représentatifs. Beaucoup de travail reste à faire pour élaborer les meilleures pratiques d’évaluation, les réglementations et les mesures de conformité. La Maison Blanche a pris des engagements et le projet de Déclaration des droits de l’IA est en train de démarrer. Des processus ont été mis en œuvre dans l’ensemble de l’industrie, avec de nombreux grands esprits travaillant ensemble (ce n’est pas parfait, mais il existe un potentiel de généralisation à l’ensemble de l’industrie). Des réunions ont lieu pour parvenir à une convergence sur les normes actuellement en vigueur ; éventuellement dans une future réglementation. Comment effectuons-nous les évaluations, les analyses de sécurité, etc. ? Aucune de ces conversations n’offre la diversité nécessaire dans la salle. Pensez à qui doit être présent dans la salle lorsque les décisions sont prises.

Dr Daume : Je pense que lorsque les gens parlent de réglementation, notamment dans le domaine de l'IA, tout le monde pense à des réglementations punitives. Mais cela peut aussi inciter à la réglementation. Le financement des décideurs politiques et de la NSF pourrait promouvoir le développement d’outils qui nous aident en tant que nation et dans le monde.

Q : Aux États-Unis, le financement de l’IA est très en retard par rapport à d’autres pays du monde. Le nouvel investissement de la NSF s’élève à quelque 20 millions, ce qui est une cacahuète comparé aux investissements de l’industrie. Le gouvernement fédéral publie des rapports d’études depuis des années, et la conclusion est que les États-Unis doivent se lancer. J'adore l'analogie du changement de phase d'Ece. La limite thermodynamique avec les nombres augmente. Nous voulons une IA ouverte, qui va payer pour cela ? Il n'y a pas assez d'argent. Quelles sont vos suggestions ? IA ouverte ? Mais nous n’avons même pas de publication en libre accès. Recommanderiez-vous au président de ne pas adopter de législation ?

Dr May : Je pense qu’il y a de l’argent ; quelqu'un m'a fait remarquer que vous avez réussi à convaincre le gouvernement de faire circuler des particules, mais que vous n'avez pas réussi à les détourner vers nous.

Dr Kamar : La raison pour laquelle les entreprises qui construisent ces modèles obtiennent ces résultats est grâce à la centralisation des ressources. L’échelle permet d’obtenir beaucoup de choses. Nous devrions réfléchir à la façon dont nous centralisons les investissements dans le monde universitaire afin d’obtenir une ressource partagée au lieu d’avoir de nombreux modèles différents. Nous constatons que ce n’est pas seulement une question d’échelle. Ce n’est pas quelque chose que nous devons faire maintenant, mais l’architecture actuelle n’est pas géniale. Avoir de bonnes capacités d’IA ne devrait pas simplement être une question de plus d’argent et de puissance.

Q : Biais de surreprésentation dans les réponses. Est-ce qu'on sait d'où ça vient ? Je suis un mathématicien, et je pense qu'il s'agit d'une combinaison d'erreurs d'arrondi qui ajoute un biais ? En cas de représentation égale, j'imagine que cela produirait une représentation égale, ou serait-elle toujours là ?

Dr May : Beaucoup de choses dépendent des fonctions de dopage. Le soft maximum est une partie importante de l’entraînement. Le plus haut veut être n°1. Ce n'est pas comme s'il existait une langue parfaite, mais nous voulons avoir un certain parti pris. Nous voulons simplement minimiser les dommages causés aux personnes, et bien souvent, nous ne les reconnaissons pas. Le déploiement sans compréhension est un problème. 

Dr Daume : L’un des défis de ces modèles est qu’il n’existe plus de modèles d’IA étroits. Ils disent qu'ils peuvent tout faire, donc c'est difficile de tout tester.

Q : Vous avez mentionné que l’IA était un outil ou un remplacement, dans quelle direction voyez-vous les choses évoluer ?

Dr Daume : Il y a plus d'argent pour le remplacement.

Q : Le titre mentionne une IA romantique. Je veux en savoir plus à ce sujet.

Dr May : Il n'y a pas suffisamment d'intention dans les modèles pour qu'ils soient des substituts romantiques viables, mais ils sont aussi bons que les humains pour reconnaître des modèles même lorsqu'ils n'existent pas.

Dr Kamar : Je vous conseille de ne pas considérer l’IA telle qu’elle est actuellement. Essayez de vous projeter dans le futur : imaginez que dans quelques années, ces systèmes seront personnalisés pour vous. Quelle relation aurez-vous avec ce système ?

Dr May : Mais est-ce qu'il vous aimera ?

Dr Kamar : Il vous dira qu'il vous aime.

Dr May : Mais est-ce suffisant ?

Q : Je souhaite entendre des conseils pour les personnes qui ne travaillent pas dans le domaine de l'IA. Comment pouvons-nous utiliser ces outils ? Que devrions-nous savoir?

Dr Daume : À l’Université du Maryland, nous avons beaucoup de ces conversations. C'est facile pour moi de dire que le journalisme sera différent dans 5 ans, et d'autres domaines aussi. Il est inconfortable de dire que le rôle du professeur sera différent dans 5 ans, mais ce sera le cas. J'ai des collègues qui utilisent différents plug-ins LLM pour les propositions et les articles ; cela se produit déjà. J'ai régulièrement des questions d'examen rédigées par des outils, mais je dois en vérifier l'exactitude. Rédiger des questions d'examen ne m'apporte pas de joie, alors l'IA peut m'enlever cette tâche. Dans l’enseignement supérieur, il faut y réfléchir davantage. Comment cela transforme-t-il nos emplois ? Il y a beaucoup de discussions en cours dans les universités, mais pas beaucoup de mutualisation des ressources.

Q : Dans quelle mesure l’IA sera-t-elle bienvenue à l’avenir lors de l’examen des applications militaires ? Il n'y a eu aucune mention d'applications militaires au cours de cette session – je sais que si j'ai bien lu les gens, il y a une divergence d'opinion sur ce sujet.

Dr May : Le secteur militaire est vaste et une grande partie de mon travail est parrainé par le ministère de la Défense. Difficile de répondre spécifiquement, en général, le ministère de la Défense (sans parler en son nom) semble donner la priorité à la sûreté et à la sécurité des États-Unis, et continuera de le faire et de tirer parti des LLM et de l'IA pour aider les États-Unis à être en sécurité.

Dr Kamar : Nous devons également parler de double usage. Si vous prenez le travail militaire en cours en biologie ou en cybersécurité, nous pouvons prendre les outils très prometteurs dont nous disposons actuellement et les utiliser parce que nous voulons des systèmes sécurisés et de nouveaux médicaments. Mais à chaque bonne utilisation, vous en aurez une mauvaise. Dans quels cas d’utilisation nous ne voulons pas que l’IA soit utilisée ? Dans les applications open source, les utilisateurs peuvent reproduire ces modèles. Comment pouvons-nous empêcher les gens de faire du mal dans ces cas-là ?

Q : Lorsqu'ils interagissent avec des modèles de langage, les adultes comprennent qu'ils ne sont pas vivants ni conscients de eux-mêmes, mais qu'en est-il plusieurs générations plus tard ? des enfants qui en souffrent depuis qu'ils se souviennent d'avoir socialisé ? Ils ont un tuteur ou un enseignant entièrement IA ; le système est intégré à un instructeur. Ils pourraient créer un lien avec l’enseignement, penser qu’ils entretiennent d’excellentes relations, puis le programme serait supprimé. Quelle est la psychologie infantile des liens sociaux-émotionnels avec des entités non-personnes ?

Dr Kamar : Nous avons besoin de recherche, de recherche interdisciplinaire, et nous en avons besoin rapidement. Dans 5 ans, nous obtiendrons peut-être ces réponses, mais à ce moment-là, l’IA pourrait devenir une partie importante de la vie de mon enfant de 10 ans. Votre question est extrêmement importante. Des recherches montrent que même des systèmes innocents peuvent avoir des portes dérobées. Nous avons besoin que des experts en sécurité et des spécialistes du développement de l’enfant aient ces conversations aujourd’hui.

Dr Daume : Je ne sais pas si quelqu'un se souvient de la surveillance Barbie – il y a ici un gros problème de confidentialité. C'est une question sociale plus intéressante. Les réponses ont été trop positives. Les enfants diraient des choses comme Je suis en colère parce que Sally n'a pas joué avec moi, et cela ne donne pas de suggestions socialement appropriées. Je m'inquiète des agents très positifs, car la positivité n'est pas toujours la bonne réponse.

Merci beaucoup d'avoir lu et restez à l'écoute pour le récapitulatif de notre troisième et dernier panel à l'AAAS 2024.

spot_img

Dernières informations

spot_img