Zephyrnet Logo

O governo dos EUA cria o National Artificial Intelligence Initiative Office no último minuto antes do fim da presidência de Trump

Data:

em breve Poucos dias antes de o presidente Trump deixar o cargo, a Casa Branca criou seu National Artificial Intelligence Initiative Office, que ficará subordinado ao Office of Science and Technology Policy.

A organização será responsável por ajudar a indústria e a academia a trabalharem juntas para garantir que o desenvolvimento da IA ​​esteja de acordo com a estratégia dos EUA. Também ajudará a aprovar novas políticas e estabelecer iniciativas de financiamento de P&D. A mudança é um dos últimos esforços de Trump para estabelecer algo potencialmente duradouro no campo durante seu tempo no governo.

“Por meio dos esforços históricos da administração Trump e do entusiasmo e atividade sem paralelo do setor privado e acadêmico, os Estados Unidos continuam sendo o líder mundial em inteligência artificial”, segundo a uma declaração.

“O novo National AI Initiative Office da Casa Branca será parte integrante dos esforços do Governo Federal para manter esta posição de liderança por muitos anos.”

A ferramenta de reconhecimento facial usada para selecionar candidatos a empregos foi descartada

HireVue, uma empresa de software que desenvolveu um dos algoritmos de triagem de empregos mais amplamente usados, abandonou seu controverso recurso de reconhecimento facial.

As características faciais dos candidatos foram analisadas enquanto falavam durante as entrevistas via webcam. Junto com outros dados, como o tom de voz e as palavras faladas, os candidatos a empregos foram marcados pelo código de qualidades, incluindo simpatia e confiabilidade.

Especialistas argumentaram que esse tipo de software sofre de preconceitos e não deve ser empregado quando o sustento das pessoas está em jogo. Em 2019, The Electronic Privacy Information Center, uma organização sem fins lucrativos, apresentou uma queixa com a Comissão Federal de Comércio da América alegando que a HireVue "cometeu práticas desleais e enganosas em violação da Lei FTC".

Agora, a empresa eliminou seu recurso mais polêmico. “Estava agregando algum valor para os clientes, mas não valia a pena se preocupar”, CEO da HireVue disse Wired.

Personalize o Amazon Alexa com sua própria palavra de ativação, por exemplo: oi!

A Amazon lançou o Alexa Custom Assistant, uma plataforma que permite às organizações personalizar o smart assistant controlado por voz para seu próprio uso.

“O Alexa Custom Assistant é construído diretamente na tecnologia Alexa, fornecendo às empresas acesso à tecnologia de IA de voz de classe mundial e sempre em aprimoramento, personalizada com wake word, voz, habilidades e recursos exclusivos dito.

Por exemplo, alguns fabricantes de automóveis, incluindo a Fiat Chrysler Automobiles, assinaram um contrato como cliente para usar o software Alexa para alimentar alto-falantes inteligentes em seus carros. Os desenvolvedores não são obrigados a implantar a unidade de assistente físico da Amazon; é um software que eles podem usar em seu próprio hardware. A Amazon espera que, ao abrir o serviço para empresas, seu sistema de aprendizado de máquina seja incorporado a aplicativos móveis, gadgets e até videogames.

A maior rede neural com mais de trilhões de parâmetros

Os googlers construíram um modelo enorme de linguagem com 1.6 trilhão de parâmetros, mais de nove vezes maior do que o sistema GPT-3 da OpenAI. Modelos de linguagem estão na moda agora, e o truque especial deste parece ser a maneira eficiente como foi ensinado.

O modelo Golias foi treinado em 750 GB de texto extraído da Internet e exigiria muitos recursos computacionais para processar todos esses dados. Os Googlers conseguiram fazer isso com apenas 32 núcleos TPU, dizem, graças a uma nova técnica que eles chamam de Switch Transformers. O papel descrever o método é estonteante. Essencialmente, o modelo de 1.6 trilhão de parâmetros é otimizado para treinamento, pois pode lidar com multiplicações de matrizes esparsas com mais eficácia.

“Conseguimos isso projetando um modelo de ativação esparsa que usa de forma eficiente hardware projetado para multiplicações de matrizes densas, como GPUs e TPUs”, afirmou o artigo. “Em nossa configuração de treinamento distribuída, nossas camadas ativadas esparsamente dividem pesos exclusivos em dispositivos diferentes. Portanto, os pesos do modelo aumentam com o número de dispositivos, tudo isso enquanto mantém uma memória gerenciável e pegada computacional em cada dispositivo. ” ®

Fonte: https://go.theregister.com/feed/www.theregister.com/2021/01/18/ai_in_brief/

local_img

Inteligência mais recente

local_img

Fale Conosco

Olá! Como posso ajudá-lo?