Logo Zéphyrnet

Comment refléter l'architecture du cerveau humain accélère l'apprentissage de l'IA

Date :

Alors que l'IA peut effectuer quelques exploits impressionnants lorsqu'il est formé sur des millions de points de données, le cerveau humain peut souvent apprendre à partir d'un petit nombre d'exemples. De nouvelles recherches montrent qui emprunt principes architecturaux du cerveau peut aider l'IA à se rapprocher de notre visuel prouesse.

La sagesse qui prévaut dans la recherche sur l'apprentissage en profondeur est que plus vous envoyez de données à un algorithme, mieux il apprendra. Et à l'ère du Big Data, c'est plus facile que jamais, en particulier pour les grandes entreprises technologiques centrées sur les données qui effectuent une grande partie de la recherche de pointe sur l'IA.

Aujourd'hui's le plus grand l'apprentissage en profondeur modèles, comme GPT-3 d'OpenAI et le BERT de Google, sont entraînés sur des milliards de points de données, et encore plus modestes numériques jumeaux (digital twin models) nécessitent de grandes quantités de données. La collecte de ces ensembles de données et l'investissement des ressources de calcul pour les parcourir constituent un goulot d'étranglement majeur, en particulier pour les laboratoires universitaires moins bien dotés en ressources.

Cela signifie aussi aujourd'hui AI est beaucoup moins flexible que l'intelligence naturelle. Alors qu'un humain n'a besoin de voir qu'une poignée d'exemples d'un animal, d'un outil ou d'une autre catégorie d'objets pour pouvoir le sélectionner à nouveau, la plupart des IA doivent be formés sur de nombreux exemples d'un objet afin de pouvoir le reconnaître.

Il n’y a pas de limite de temps pour le tournoi. Cependant, si vous restez inactif pendant une longue période, vous serez déconnecté de BBO et la partie sera perdue. une sous-discipline active de la recherche en IA visant à ce que l'on appelle l'apprentissage "one-shot" ou "few-shot", où les algorithmes sont conçus pour pouvoir apprendre à partir de très peu d'exemples. Mais ces approches sont encore largement expérimentales, et elles ne peuvent se rapprocher de rencontreingurgiter l'apprenant le plus rapide que nous connaissions : le cerveau humain.

This a incité une paire de neuroscientifiques à voir s'ils pouvaient concevoir une IA qui pourrait apprendre de quelques points de données en empruntant des principes à la façon dont nous pensons que le cerveau résout ce problème. Dans un papier dans Frontières de la neuroscience computationnelle, l'ont a expliqué que l'approche stimule considérablement IA capacité à apprendre de nouveaux concepts visuels à partir de quelques exemples.

"Notre modèle fournit un moyen biologiquement plausible pour les réseaux de neurones artificiels d'apprendre de nouveaux concepts visuels à partir d'un petit nombre d'exemples", Maximilian Riesenhuber, du Centre médical de l'Université de Georgetown, said dans un communiqué de presse. "Nous pouvons faire en sorte que les ordinateurs apprennent beaucoup mieux à partir de quelques exemples en tirant parti de l'apprentissage antérieur d'une manière qui, selon nous, reflète ce que fait le cerveau."

Plusieurs décennies de recherche en neurosciences suggèrent que la capacité du cerveau à apprendre si rapidement dépend sur sa capacité à utiliser les connaissances antérieures pour comprendre de nouveaux concepts basés sur peu de données. En ce qui concerne la compréhension visuelle, cela peut s'appuyer sur des similitudes de forme, de structure ou de couleur, mais le cerveau peut également tirer parti de concepts visuels abstraits censés être encodés dans une région du cerveau appelée lobe temporal antérieur (ATL).

"C'est comme dire qu'un ornithorynque ressemble un peu à un canard, un castor et une loutre de mer », said papier co-auteur Joshua Rule, de l'Université de Californie à Berkeley.

Les chercheurs ont décidé d'essayer de recréer cette capacité en utilisant des concepts similaires de haut niveau appris par unn AI pour l'aider à apprendre rapidement des catégories d'images inédites.

Les algorithmes d'apprentissage en profondeur fonctionnent en faisant en sorte que des couches de neurones artificiels apprennent des caractéristiques de plus en plus complexes d'une image ou d'un autre type de données, qui sont ensuite utilisées pour catégoriser de nouvelles données. Par exemple, les premières couches rechercheront des caractéristiques simples comme les bords, tandis que les suivantes pourraient rechercher des caractéristiques plus complexes comme les nez, les visages ou même des caractéristiques de plus haut niveau.

Ils ont d'abord formé l'IA sur 2.5 millions d'images dans 2,000 XNUMX catégories différentes à partir du jeu de données ImageNet populaire. Ils ont ensuite extrait les caractéristiques de différentes couches du réseau, y compris la toute dernière couche avant la couche de sortie. Thé se référer à ces en tant que « caractéristiques conceptuelles » parce quey sont les fonctionnalités de plus haut niveau apprises et les plus similaires aux concepts abstraits qui pourraient être encodés dans l'ATL.

Ils ont ensuite utilisé ces différents ensembles de fonctionnalités pour entraîner l'IA à apprendre de nouveaux concepts basés sur 2, 4, 8, 16, 32, 64 et 128 exemples. Ils ont constaté que l'IA qui utilisait les fonctionnalités conceptuelles offrait de bien meilleures performances que celles formées à l'aide de fonctionnalités de niveau inférieur sur un nombre inférieur d'exemples, mais l'écart se réduisait à mesure qu'elles recevaient plus d'exemples de formation.

Alors que les chercheurs admettent le défi qu'ils ont lancé à leur IA was relativement simple et ne couvre qu'un aspect du processus complexe du raisonnement visuel, ils said que l'utilisation d'une approche biologiquement plausible pour résoudre le problème de quelques coups ouvre de nouvelles voies prometteuses en neurosciences et en IA.

"Nos découvertes suggèrent non seulement des techniques qui pourraient aider les ordinateurs à apprendre plus rapidement et plus efficacement, mais elles peuvent également conduire à des expériences de neurosciences améliorées visant à comprendre comment les gens apprennent si rapidement, ce qui n'est pas encore bien compris », Riesenhuber said.

Comme le notent les chercheurs, les système visuel humain est toujours la référence en matière de compréhension du monde qui nous entoure. Emprunter à ses principes de conception pourrait s'avérer être une direction rentable pour de futures recherches.

Crédit image: Gerd Altmann du Pixabay

Source : https://singularityhub.com/2021/01/18/how-mirroring-the-architecture-of-the-human-brain-is-speeding-up-ai-learning/

spot_img

Dernières informations

spot_img