Logo Zéphyrnet

Comme un enfant, cette IA inspirée du cerveau peut expliquer son raisonnement

Date :

Les enfants sont des spécialistes des sciences naturelles. Ils observent le monde, forment des hypothèses et les testent. Finalement, ils apprennent à expliquer leur raisonnement (parfois hilarant et attachant).

L'IA, pas tellement. Il ne fait aucun doute que l’apprentissage profond – un type d’apprentissage automatique vaguement basé sur le cerveau – change radicalement la technologie. De la prévision des conditions météorologiques extrêmes à la conception de nouveaux médicaments ou au diagnostic de cancers mortels, l'IA est de plus en plus intégrée au niveau mondial. frontières de la science.

Mais l’apprentissage profond présente un énorme inconvénient : les algorithmes ne peuvent pas justifier leurs réponses. Souvent appelée problème de la « boîte noire », cette opacité empêche leur utilisation dans des situations à haut risque, comme en médecine. Les patients veulent une explication lorsqu’ils reçoivent un diagnostic de maladie qui change leur vie. Pour l’instant, les algorithmes basés sur l’apprentissage profond, même s’ils offrent une grande précision de diagnostic, ne peuvent pas fournir cette information.

Pour ouvrir la boîte noire, une équipe du Southwestern Medical Center de l’Université du Texas a puisé son inspiration dans l’esprit humain. Dans selon une étude in Science computationnelle de la nature, ils ont combiné les principes de l’étude des réseaux cérébraux avec une approche plus traditionnelle de l’IA qui s’appuie sur des éléments de base explicables.

L’IA qui en résulte agit un peu comme un enfant. Il condense différents types d’informations en « hubs ». Chaque hub est ensuite transcrit en directives de codage que les humains peuvent lire : des CliffsNotes pour les programmeurs qui expliquent les conclusions de l'algorithme sur les modèles trouvés dans les données dans un anglais simple. Il peut également générer du code de programmation entièrement exécutable à tester.

Surnommée « distillation profonde », l’IA fonctionne comme un scientifique lorsqu’elle est confrontée à diverses tâches, telles que des problèmes mathématiques difficiles et la reconnaissance d’images. En fouillant dans les données, l’IA les distille en algorithmes étape par étape qui peuvent surpasser ceux conçus par l’homme.

« La distillation profonde permet de découvrir des principes généralisables complémentaires à l’expertise humaine. » écrit l'équipe dans son journal.

Aussi fin que du papier

L’IA fait parfois des erreurs dans le monde réel. Prenez un robotaxis. L’année dernière, certains se sont retrouvés coincés à plusieurs reprises dans un quartier de San Francisco – une nuisance pour les habitants, mais ils ont quand même fait rire. Plus grave encore, les véhicules autonomes ont bloqué la circulation et les ambulances et, dans un cas, ont gravement blessé un piéton.

Dans le domaine des soins de santé et de la recherche scientifique, les dangers peuvent également être élevés.

Dans ces domaines à haut risque, les algorithmes « nécessitent une faible tolérance à l'erreur », a déclaré le Dr Joseph Bakarji de l'Université américaine de Beyrouth, qui n'a pas participé à l'étude. écrit dans un article complémentaire sur le travail.

L’obstacle pour la plupart des algorithmes d’apprentissage profond est leur inexplicabilité. Ils sont structurés comme des réseaux multicouches. En recueillant des tonnes d'informations brutes et en recevant d'innombrables séries de commentaires, le réseau ajuste ses connexions pour finalement produire des réponses précises.

Ce processus est au cœur de l’apprentissage profond. Mais il rencontre des difficultés lorsqu'il n'y a pas suffisamment de données ou si la tâche est trop complexe.

De retour en 2021, l'équipe développé une IA qui a adopté une approche différente. Appelé raisonnement « symbolique », le réseau neuronal code des règles et des expériences explicites en observant les données.

Comparés à l’apprentissage profond, les modèles symboliques sont plus faciles à interpréter. Considérez l'IA comme un ensemble de blocs Lego, chacun représentant un objet ou un concept. Ils peuvent s’articuler de manière créative, mais les connexions suivent un ensemble de règles claires.

En elle-même, l’IA est puissante mais fragile. Il s’appuie fortement sur les connaissances antérieures pour trouver des éléments de base. Lorsqu'il est confronté à une nouvelle situation sans expérience préalable, il ne peut pas sortir des sentiers battus et il se brise.

C'est ici qu'interviennent les neurosciences. L'équipe s'est inspirée des connectomes, qui sont des modèles de la façon dont différentes régions du cerveau fonctionnent ensemble. En associant cette connectivité à un raisonnement symbolique, ils ont créé une IA dotée de fondations solides et explicables, mais qui peut également s’adapter de manière flexible lorsqu’elle est confrontée à de nouveaux problèmes.

Dans plusieurs tests, le modèle « neurocognitif » a battu d’autres réseaux neuronaux profonds sur des tâches nécessitant un raisonnement.

Mais peut-il donner un sens aux données et concevoir des algorithmes pour l’expliquer ?

Une touche humaine

L’une des parties les plus difficiles de la découverte scientifique consiste à observer des données bruitées et à tirer une conclusion. Ce processus conduit à de nouveaux matériaux et médicaments, à une compréhension plus approfondie de la biologie et à des connaissances sur notre monde physique. Il s'agit souvent d'un processus répétitif qui prend des années.

L’IA pourrait être capable d’accélérer les choses et potentiellement de trouver des modèles qui ont échappé à l’esprit humain. Par exemple, l’apprentissage profond s’est révélé particulièrement utile pour prédire les structures des protéines, mais son raisonnement pour prédire ces structures est difficile à comprendre.

« Pouvons-nous concevoir des algorithmes d’apprentissage qui distillent les observations en règles simples et complètes, comme le font généralement les humains ? » a écrit Bakarji.

La nouvelle étude a pris le modèle neurocognitif existant de l'équipe et lui a donné un talent supplémentaire : la capacité d'écrire du code.

Appelée distillation profonde, l’IA regroupe des concepts similaires, chaque neurone artificiel codant un concept spécifique et sa connexion aux autres. Par exemple, un neurone pourrait apprendre le concept d'un chat et savoir qu'il est différent d'un chien. Un autre type gère la variabilité lorsqu'il est confronté à une nouvelle image, par exemple un tigre, pour déterminer si elle ressemble davantage à un chat ou à un chien.

Ces neurones artificiels sont ensuite empilés selon une hiérarchie. À chaque couche, le système différencie de plus en plus les concepts et finit par trouver une solution.

Au lieu de demander à l’IA de traiter autant de données que possible, la formation se fait étape par étape, presque comme si on enseignait à un tout-petit. Cela permet d’évaluer le raisonnement de l’IA au fur et à mesure qu’elle résout de nouveaux problèmes.

Par rapport à la formation standard sur les réseaux neuronaux, l’aspect explicite est intégré à l’IA, a expliqué Bakarji.

Lors d'un test, l'équipe a défié l'IA avec un jeu vidéo classique : Conway's Game of Life. Développé pour la première fois dans les années 1970, le jeu consiste à développer une cellule numérique en différents modèles selon un ensemble de règles spécifiques (essayez-le vous-même). ici). Entraînée à partir de données de jeu simulées, l’IA était capable de prédire les résultats potentiels et de transformer son raisonnement en directives lisibles par l’homme ou en code de programmation informatique.

L’IA a également bien fonctionné dans diverses autres tâches, telles que la détection de lignes dans des images et la résolution de problèmes mathématiques difficiles. Dans certains cas, cela a généré un code informatique créatif qui a surpassé les méthodes établies et a pu expliquer pourquoi.

La distillation profonde pourrait être un atout pour les sciences physiques et biologiques, où des pièces simples donnent naissance à des systèmes extrêmement complexes. Une application potentielle de la méthode est en tant que co-scientifique pour les chercheurs décodant les fonctions de l'ADN. Une grande partie de notre ADN est constituée de « matière noire », dans le sens où nous ne savons pas quel rôle elle joue, le cas échéant. Une IA explicable pourrait potentiellement analyser des séquences génétiques et aider les généticiens à identifier des mutations rares à l’origine de maladies héréditaires dévastatrices.

En dehors de la recherche, l’équipe est enthousiasmée par la perspective d’une collaboration plus forte entre l’IA et l’humain.

"Approches neurosymboliques pourrait potentiellement permettre des capacités d’apprentissage automatique plus humaines », a écrit l’équipe.

Bakarji est d'accord. La nouvelle étude va « au-delà des progrès techniques, et aborde les défis éthiques et sociétaux auxquels nous sommes confrontés aujourd’hui ». L’explicabilité pourrait fonctionner comme un garde-fou, aidant les systèmes d’IA à se synchroniser avec les valeurs humaines au fur et à mesure de leur formation. Pour les applications à haut risque, telles que les soins médicaux, cela pourrait instaurer la confiance.

Pour l’instant, l’algorithme fonctionne mieux lors de la résolution de problèmes pouvant être décomposés en concepts. Il ne peut pas gérer des données continues, telles que des flux vidéo.

C'est la prochaine étape de la distillation en profondeur, a écrit Bakarji. Cela « ouvrirait de nouvelles possibilités en matière de calcul scientifique et de recherche théorique ».

Crédit image: 7AV7AV / Unsplash 

spot_img

Dernières informations

spot_img