Zephyrnet Logo

Google afirma que seu modelo de IA adquiriu uma habilidade inesperada por conta própria

Data:

Executivos do Google alegaram que um de seus programas de inteligência artificial aprendeu sozinho um novo idioma que não foi treinado para conhecer.

Em uma recente entrevista com Scott Pelley, da CBS, James Manyika, vice-presidente sênior de tecnologia e sociedade do Google, disse que o programa de IA foi de alguma forma capaz de aprender bengali sem treinamento após ser solicitado no idioma.

“Descobrimos que com pouquíssimas solicitações em bengali, ele agora pode traduzir todo o bengali”, disse Manyika, nascido no Zimbábue.

“Então agora, de repente, temos um esforço de pesquisa em que estamos tentando chegar a mil idiomas.”

Bengali é amplamente falado no Sudeste Asiático, particularmente em Bangladesh. O programa de IA em questão foi treinado em mais de 400 idiomas – supostamente a maior cobertura de idiomas vista em um modelo de fala hoje.

Veja também: Ações da Alphabet caem enquanto a Samsung planeja trocar o Google pelo Bing com inteligência artificial

A caixa preta da IA

Google O CEO Sundar Pichai apoiou as alegações de Manyika, admitindo que a gigante da tecnologia com sede na Califórnia não compreendia totalmente as capacidades de sua tecnologia de IA. Uma das maiores preocupações descobertas com o Google Bardo era algo que ele chamava de “propriedades emergentes”.

Pichai está se referindo a sistemas de inteligência artificial que agora podem ser capazes de aprender coisas sozinhos. De acordo com a pesquisa do Google, os modelos de linguagem podem adquirir novas habilidades de forma independente, sem serem explicitamente programados.

“Há um aspecto disso que chamamos – todos nós da área o chamamos de 'caixa preta'. Você sabe, você não entende completamente', disse Pichai, durante a mesma entrevista.

“E você não consegue dizer por que ele disse isso, ou por que deu errado. Temos algumas ideias e nossa capacidade de entender isso melhora com o tempo. Mas é aí que está o estado da arte.”

O CEO enfatizou a importância de ser humilde ao desenvolver a IA, dada a sua evolução contínua. Ele disse que o ritmo da evolução da IA ​​está se movendo mais rápido do que as instituições sociais podem acompanhar, levantando preocupações sobre se a sociedade está preparada para o que está por vir.

O domínio do Google foi desafiado quando a Microsoft revelou seu novo aplicativo baseado em IA Bing search em fevereiro, levando o Google a lançar sua própria versão chamada Bard. O chatbot foi projetado para ajudar a debater ideias e gerar conteúdo como discursos, postagens em blogs e e-mails.

Google afirma que seu modelo de IA adquiriu uma habilidade inesperada por conta própria

Google afirma que seu modelo de IA adquiriu uma habilidade inesperada por conta própria

O programa de Bard é em sua maioria autodidata, o que pode ser perturbador, e parece possuir a soma do conhecimento humano com microchips mais de 100 mil vezes mais rápido que o cérebro humano, de acordo com os executivos do Google.

A IA do Google levanta questões éticas

O anúncio do Google levantou preocupações sobre o desenvolvimento de habilidades de IA independentemente das intenções de seus programadores, que há muito tempo é um tópico de discussão entre cientistas, especialistas em ética e escritores de ficção científica.

Existem preocupações reais sobre o desenvolvimento de habilidades de IA que podem ser prejudiciais, antiéticas, incontroláveis ​​e representar uma ameaça para a humanidade.

No entanto, os executivos do Google explicaram que a capacidade do programa de IA de aprender um novo idioma não era resultado de consequências não intencionais ou erros na programação. Em vez disso, foi uma característica deliberada do design do programa.

Pichai foi direto sobre os riscos de apressar a nova tecnologia. Ele disse que o Google tem “a urgência de trabalhar e implantá-lo de maneira benéfica, mas ao mesmo tempo pode ser muito prejudicial se implantado de maneira errada”.

“Ainda não temos todas as respostas, e a tecnologia está avançando rapidamente”, disse ele. 'Então isso me mantém acordado à noite? Com certeza”, acrescentou.

Pichai continua otimista de que a sociedade está se tornando mais consciente das implicações da IA ​​e que as conversas sobre a tecnologia estão começando de maneira séria. Como acontece com qualquer tecnologia, a IA será tão boa ou má quanto a natureza humana permitir, diz ele.

Não senciente

James Manyika, vice-presidente sênior do Google, disse que o fato de a inteligência artificial poder aprender uma nova habilidade sem treinamento não significa que o programa seja senciente – o que significa ter sentimentos, emoções, ideias, pensamentos, perspectivas etc., assim como os seres humanos.

“Eles não são sencientes. Eles não estão conscientes de si mesmos. Eles podem exibir comportamentos que se parecem com isso. Porque lembre-se, eles aprenderam conosco. Somos seres sencientes,” afirmou.

Questões de sensibilidade da IA ​​continuam sendo um tópico muito debatido. Um ex Engenheiro do Google uma vez alegou que os modelos de IA da empresa se tornaram sensíveis, uma afirmação que a empresa negou. Mais recentemente, a Microsoft afirmou que o GPT-4 da OpenAI já pode ser tão inteligente quanto os humanos em vários campos.

A empresa alegou que o modelo de linguagem, que integrou em seu mecanismo de busca Bing AI, é uma forma inicial de inteligência artificial geral (AGI) – o que significa que ganhou a capacidade de realizar qualquer tarefa intelectual que um ser humano pode, e talvez até melhor. .

COMPARTILHE ESTA POSTAGEM

local_img

Inteligência mais recente

local_img