Zephyrnet Logo

Como o espelhamento da arquitetura do cérebro humano está acelerando o aprendizado de IA

Data:

Enquanto a IA pode realizar alguns feitos impressionantes quando treinado em milhões de pontos de dados, o cérebro humano pode muitas vezes aprender com um pequeno número de exemplos. Novos programas de pesquisa que empréstimo princípios arquitetônicos do cérebro pode ajudar a IA ficar mais perto de nosso visual proeza.

A sabedoria predominante na pesquisa de aprendizado profundo é que quanto mais dados você joga em um algoritmo, melhor ele aprenderá. E na era do Big Data, isso é mais fácil do que nunca, especialmente para as grandes empresas de tecnologia centradas em dados que realizam muitas pesquisas de IA de ponta.

Hoje's maior deep learning modelos, como GPA-3 do OpenAI e o BERT do Google, são treinados em bilhões de pontos de dados, e ainda mais modestos modelos requerem grandes quantidades de dados. Coletar esses conjuntos de dados e investir nos recursos computacionais para processá-los é um grande gargalo, especialmente para laboratórios acadêmicos com menos recursos.

Também significa que hoje AI é muito menos flexível do que a inteligência natural. Enquanto um humano só precisa ver alguns exemplos de um animal, uma ferramenta ou alguma outra categoria de objeto para ser capaz de identificá-lo novamente, a maioria dos IA precisa be treinado em muitos exemplos de um objeto para ser capaz de reconhecê-lo.

Não há uma subdisciplina ativa de pesquisa em IA voltado para o que é conhecido como aprendizado “one-shot” ou “few-shot”, onde algoritmos são projetados para serem capazes de aprender com poucos exemplos. Mas essas abordagens ainda são amplamente experimentais e não podem Aproximar-se de partidaing o aluno mais rápido que conhecemos - o cérebro humano.

This levou um par de neurocientistas a ver se eles poderiam projetar uma IA que pudesse aprender com poucos pontos de dados, tomando emprestados princípios de como pensamos que o cérebro resolve esse problema. Em um em papel Fronteiras em neurociência computacional, deles explicou que a abordagem aumenta significativamente AI's capacidade de aprender novos conceitos visuais a partir de alguns exemplos.

“Nosso modelo fornece uma maneira biologicamente plausível para as redes neurais artificiais aprenderem novos conceitos visuais a partir de um pequeno número de exemplos,” Maximilian Riesenhuber, da Centro Médico da Universidade de Georgetown, said em um comunicado de imprensa. “Podemos fazer com que os computadores aprendam muito melhor com poucos exemplos, aproveitando o aprendizado anterior de uma forma que achamos que reflete o que o cérebro está fazendo”.

Várias décadas de pesquisa em neurociência sugerem que a capacidade do cérebro de aprender tão rapidamente depende em sua capacidade de usar o conhecimento prévio para entender novos conceitos com base em poucos dados. Quando se trata de compreensão visual, isso pode depender de semelhanças de forma, estrutura ou cor, mas o cérebro também pode alavancar conceitos visuais abstratos que se acredita estarem codificados em uma região do cérebro chamada lobo temporal anterior (ATL).

"É como dizer que um ornitorrinco se parece um pouco com um pato, um castor e uma lontra marinha ”, said papel co-autor Joshua Rule, da University of California Berkeley.

Os pesquisadores decidiram tentar recriar esse recurso usando conceitos semelhantes de alto nível aprendidos por umn IA para ajudá-lo a aprender rapidamente categorias de imagens nunca antes vistas.

Os algoritmos de aprendizado profundo funcionam fazendo com que camadas de neurônios artificiais aprendam recursos cada vez mais complexos de uma imagem ou outro tipo de dados, que são então usados ​​para categorizar novos dados. Por exemplo, as primeiras camadas procurarão recursos simples, como arestas, enquanto as posteriores podem procurar recursos mais complexos, como narizes, rostos ou até mesmo características de alto nível.

Primeiro, eles treinaram a IA em 2.5 milhões de imagens em 2,000 categorias diferentes do popular conjunto de dados ImageNet. Em seguida, extraíram recursos de várias camadas da rede, incluindo a última camada antes da camada de saída. Tei, refira-se a estes como "recursos conceituais" porque oy são os recursos de nível mais alto aprendidos e mais semelhantes aos conceitos abstratos que podem ser codificados no ATL.

Em seguida, eles usaram esses diferentes conjuntos de recursos para treinar a IA para aprender novos conceitos com base em 2, 4, 8, 16, 32, 64 e 128 exemplos. Eles descobriram que a IA que usava os recursos conceituais produzia um desempenho muito melhor do que aqueles treinados com recursos de nível inferior em um número menor de exemplos, mas a lacuna diminuiu à medida que foram alimentados com mais exemplos de treinamento.

Embora os pesquisadores admitam o desafio, eles definem sua IA wasão relativamente simples e cobrem apenas um aspecto do complexo processo de raciocínio visual, eles said que o uso de uma abordagem biologicamente plausível para resolver o problema de poucos tiros abre novos caminhos promissores tanto na neurociência quanto na IA.

"Nossas descobertas não apenas sugerem técnicas que podem ajudar os computadores a aprender mais rápida e eficientemente, mas também podem levar a experimentos neurocientíficos aprimorados com o objetivo de compreender como as pessoas aprendem tão rapidamente, o que ainda não é bem compreendido ”, Riesenhuber said.

Como observam os pesquisadores, o O sistema visual humano ainda é o padrão ouro quando se trata de compreender o mundo que nos rodeia. Pegar emprestado seus princípios de design pode acabar sendo uma direção lucrativa para pesquisas futuras.

Crédito de imagem: Gerd Altmann da P

Fonte: https://singularityhub.com/2021/01/18/how-mirroring-the-architecture-of-the-human-brain-is-speeding-up-ai-learning/

local_img

Inteligência mais recente

local_img

Fale Conosco

Olá! Como posso ajudá-lo?